#AI 基建
AI 基建到底在建什麼?黃仁勳在達沃斯給了一個答案
“AI,到底是概念泡沫,還是真金白銀的基建?”2026 年 1 月 21 日,達沃斯主舞台對談上,輝達創始人黃仁勳給出的答案是:這是人類歷史上最大的一次基礎設施建設。這個“建設”,是真的要動土、通電、招人。黃仁勳說,AI 分五層:最底層是能源,往上是晶片、雲服務、模型,最頂層才是應用。而每一層,都需要真實的廠房、裝置、電力和人。正因如此,他對所有國家說:AI 是基礎設施。每個國家都該建。所以,這篇文章,我們不談宏觀趨勢,只把一個問題問清楚: AI 基建,到底在建什麼?第一節|第一件事是電,不是晶片2025年,全世界的科技公司都在搶算力。但算力要運轉,必須有電。而且是持續的、穩定的、大量的電。結果,最先漲價的,是電力合同。這不是偶然。黃仁勳在達沃斯說:“AI 是即時處理、即時生成智能的,它需要能源來做到這一點。”這意味著,那怕你手上有最好的模型,有最新的晶片,但如果沒有穩定、足夠的電力,AI 就動不了。不是慢,而是完全運行不了。因為 AI 需要的電,和普通用電不一樣。資料中心訓練模型、即時推理,需要的是高密度、低延遲、全年不中斷的電力。這意味著,建 AI 不只是“通上電”就行,而是要建一整套能源供應系統:選址要看電網能不能承受,發電要保證穩定輸出,儲能要應對峰值,配網要扛得住持續高負載。黃仁勳沒有用能源危機這樣的詞。他說的是:我們需要更多的能源、土地和資料中心。在他看來,人類歷史上最大的基礎設施建設已經開始。從美國到阿聯,從東南亞到北歐,想建 AI 的地方,第一件事都是先談電力夠不夠。AI 到底在建什麼?第一步不是寫程式碼,是先接上電。第二節|晶片廠、AI 工廠,都已經開工了黃仁勳說:“我們正在世界各地建設晶片工廠、電腦工廠和 AI 工廠。”他列出了幾組數字:台積電將在全球建 20 座新晶片廠,廣達、緯創、富士康將建 30 座 AI 電腦工廠。不是代工手機、不是做消費電子,而是專門為 AI 訓練和部署提供生產裝備。晶片負責算,但 AI 還需要存。訓練一個大模型,要處理海量資料,這些資料得有地方放。 美光(Micron)宣佈投資2000億美元做儲存器,三星和 SK 海力士也同步加碼。也就是,建 AI 不光是有電就行,還得造出整套硬體:晶片負責算,儲存器負責裝資料,電腦工廠把這些組裝成 AI 伺服器,然後大規模交付。這不是幾家公司的事,而是一場全球性的建設浪潮。為什麼說是浪潮?因為這和早年的鋼鐵、電力、鐵路一樣,都是先建工廠,再有產業。 AI 工廠的概唸過去聽起來有點虛,現在你能看到動土、招工、封頂、通電、交付的完整流程。那麼規模有多大? 黃仁勳給出的數字是:我們現在投入了幾千億美元,但這只是開始,還有數兆美元的基礎設施要建。AI 的熱,不是因為“炒概念”,而是越來越多國家、企業都在真金白銀地建廠、買裝置、招人。從電力到工廠,AI 這場基建,已經從圖紙落到了地上。第三節|模型只是第四層,不是 AI 的全部過去幾年,大家談 AI,說的幾乎都是模型。那個模型更強,參數多少,誰跑分第一。但在黃仁勳看來,模型只是 AI 五層結構中的一層。精準說,是第四層。在它下面,有能源、晶片、雲服務在支撐;在它上面,還有應用層才是真正產生價值的地方。怎麼理解?他用了一個比喻:過去的 AI 模型像是一台發動機放在展台上,很漂亮,但你不能直接開走。你得先造好車架、油箱、電路系統,再裝進去,最後調校,跑在真實路上,才叫產品。現在最大的問題,不是模型不夠好,而是很多人只看到“發動機”。黃仁勳看的不一樣。他關注的是,這台發動機能不能進車間、上公路、進行業現場。因為模型本身不等於應用,只有落地了才有價值。真正讓產業受益、讓經濟增長的,是應用層。也就是模型之上,那些能落地到醫療、金融、製造等具體領域的產品和服務。所以現在,行業的焦點正在轉移:不再是誰的模型參數更多,而是誰能把 AI 真正用起來。第四節|AI 原生公司爆發,基建才剛開始黃仁勳在達沃斯給出了一組資料:2025年是風險投資歷史上投資額最高的一年之一,大量資金流向了 AI 原生公司。這些公司不造模型,也不設計晶片。它們直接拿現成的模型來做事,做藥物研發、做金融分析、重建製造流程。他用了一個詞:AI 原生公司(AI-native companies)。意思是,這類公司一開始就圍繞 AI 來設計自己的產品流程和商業模式。比如製藥巨頭禮來公司(Lilly),過去主要把研發預算投在濕實驗室,買裝置、做化學試驗。但現在,他們投資了一座大型 AI 實驗室和超級電腦,把一部分新藥開發流程交給 AI。類似的轉變,在很多行業都在發生。機器人製造、醫療診斷、自動交易、客服系統、合規審查……這些過去需要大量人力的領域,現在 AI 原生公司的做法是:拿現成的模型,用自己行業的資料訓練它,讓它學會處理具體任務,再把這套能力做成可以直接用的產品。比如客服系統,以前要雇幾百人,現在用 AI 客服,24小時線上,成本降到十分之一。這不是概念驗證,而是已經在大規模商用的產品。而當這類 AI 原生公司越來越多,會發生什麼?黃仁勳的回答是:上層 AI 應用爆發了,下層基礎設施就得必須跟上。這些公司要用 AI,不是演示一次,而是要它穩定、便宜、能大規模用。這就倒逼著底層基礎設施必須擴張:電力得更充足,晶片要供得上,工廠要能量產,雲服務要能承壓。黃仁勳說:我們才剛開始建 AI 的底座。不是行業不熱,是用 AI 的公司才剛剛冒出來。基礎設施的作用,就是讓這些公司能真正用起來。第五節|誰在參與:勞動力和國家的角色說完建什麼,再看誰來建。答案可能出乎很多人意料:首先是水管工、電工、鋼鐵工人。在美國,參與晶片廠、電腦工廠、AI工廠建設的這些工種,已經供不應求。黃仁勳現場舉了個數字:薪資在短時間內幾乎翻了一倍,有人年薪已經突破六位數。最重要的是,這類工作並不需要電腦博士學位。它需要的是,能動手、能現場施工、能操作裝置的人。對很多國家來說,這是讓藍領重新成為中產的機會。那麼,當 AI 真正投入使用後,會怎樣影響那些已經在崗的人?很多人的第一反應是:會被取代。但現實恰恰相反。比如放射科醫生。過去 AI 被預測最先取代的職業之一就是他們。但 10 年過去,AI 已經深入滲透放射科室,而醫生的數量卻增加了。為什麼?因為讀圖像這種重複、機械的任務被 AI 接手後,醫生反而能把時間用在和病人對話、做綜合判斷上。醫院接診量增加,收入提升,醫生職位也變多了。再比如護士。很多 AI 工具正在幫他們完成文件記錄、就診轉寫等繁雜事務。結果是:護士花更多時間照顧病人,而不是填表。病人流轉變快,醫院雇的人也更多了。黃仁勳總結:AI 取代的是任務,不是目的。只要你的工作不是純機械重複,而是需要判斷、需要和人互動、需要創造,AI 就是幫手,不是對手。除了個人,國家呢?黃仁勳強調的是:參與權。過去很多開發中國家覺得 AI 太遙遠,但他給出的是一套本地起步方案:開源模型已經非常強大;很多國家可以用本地語言+本地知識進行微調;不一定非要從頭做起,但一定要參與建設。AI 應該像電力、道路一樣,是每個國家的基礎設施。這話,是說給所有開發中國家聽的。如果說過去幾波技術革命,先在矽谷、歐美發生,再傳到其他國家;那麼 AI 這一輪,是從頭就開放了部分參與權。你不必先造模型,但可以先用模型;不必懂晶片,但可以先建 AI 應用。結語|短缺,不是泡沫想租一個 GPU,很難。現貨價格還在漲,不只是最新的,就連兩代以前的卡也漲了。黃仁勳說:“泡沫不會漲價,短缺才會。”製藥公司開始把錢投向 AI 實驗室。各國在搶電力和土地。投資機構在找 AI 基建項目。AI 到底在建什麼?能源、晶片廠、資料中心、模型層、應用層。這是黃仁勳在達沃斯給出的答案。 (AI深度研究員)
【達沃斯論壇】黃仁勳大聲疾呼:最重要的除了Infra,還是Infra!AI原生公司已爆發,基建才剛開始!
達沃斯經濟論壇上,少不了老黃的身影!當地時間1月21日,輝達CEO黃仁勳出席了達沃斯經濟論壇,與知名投資管理公司貝蘭德的CEO Larry Fink 展開對話。30分鐘看下來,老黃的觀點很直接:現在最重要的事情,除了Infra,還是Infra!黃仁勳指出,人工智慧已經啟動了“人類歷史上最大規模的基礎設施建設”,輝達已經投入了數千億美元,但還有數兆美元的基礎設施需要建設。再進一步延展,黃仁勳認為AI本身未來會成為每個國家的基礎設施,每個國家都應該打造自己的AI、建設自身的AI基礎設施,讓“國家智能”成為生態系統的一部分。他堅信AI會縮小而不是放大技術鴻溝,並建議開發中國家應該盡快行動起來:建設基礎設施,積極參與AI浪潮。此外,他還指出AI基礎設施的建設將會是歐洲“一代人難得一遇的機會”,因為歐洲具有強大的工業製造基礎。如果歐洲現在就入場,把自身強大的工業與製造能力與 AI 融合,就能直接躍遷到“物理 AI”和機器人時代。面對AI是否會重塑勞動力市場、替代人類崗位的問題,黃仁勳再次強調了他一貫秉持的看法:比起替代,AI能為人們創造更多的就業崗位。他描述了自己親眼看到的現象:這些崗位大量集中在“技工型職業”上,包括水管工、電工、建築工人、鋼結構工人、網路技術人員,負責裝置安裝、偵錯和維運的人等等。“僅在美國,我們已經看到這一領域出現了非常顯著的增長,相關崗位的薪資幾乎翻倍。”AI 原生公司爆發,基建才剛開始在訪談中,黃仁勳給出了一個強勢判斷:AI原生公司已經爆發了,但基礎設施建設才剛剛開始!他指出,我們如今與AI進行互動,背後的本質是計算平台的遷移。所謂平台,就是應用建構其上的基礎。從 PC 時代到網際網路,再到移動雲端運算,每一次平台遷移都會重塑整個計算棧,並催生出全新的應用生態。今天的 AI,同樣是一場新的平台遷移。根據黃仁勳提出的“AI五層蛋糕模型”理論:最底下是能源層,AI即時生成智能,需要大量能耗;第二層是晶片與基礎設施,這也是輝達所在的層級;第三層是雲基礎計算和雲服務;第四層是AI模型層,如 GPT、Gemini 等模型,也是大多數人所理解的AI;最上層是AI應用層,比如自動駕駛、聊天機器人等應用場景。黃仁勳強調,真正的經濟價值最終都會在應用層產生,而應用層已經爆發,一個重要訊號就是風險投資的流向。他給出了一組資料:2025 年是史上 VC 投資規模最大的年份之一,大多數資金都流向了“AI 原生公司”——無論是醫療、機器人、製造業還是金融服務。什麼是AI原生公司?就是一開始就圍繞 AI 來設計自己的產品流程和商業模式的公司。比如製藥巨頭禮來公司(Lilly),過去主要把研發預算投在濕實驗室,買裝置、做化學試驗。但現在,他們投資了一座大型 AI 實驗室和超級電腦,把一部分新藥開發流程交給 AI。就在不久前,輝達宣佈與禮來達成合作,雙方將在人才、基礎設施和算力方面聯合投入高達 10 億美元,成立一家開創性的 AI 聯合創新實驗室,該實驗室將基於 NVIDIA BioNeMo 平台及 NVIDIA Vera Rubin 架構搭建基礎設施,從而建構強大的AI模型,加速新藥研發。黃仁勳也在訪談中透露,禮來已經發現AI 在理解蛋白質和化學結構方面取得了巨大進展,未來我們甚至可以像“對話 ChatGPT”一樣,與蛋白質進行互動,這將帶來真正重大的科學突破。而這種轉變,並不只發生在製藥行業。機器人製造、醫療診斷、自動交易、客服系統、合規審查……這些過去需要大量人力的領域,現在 AI 原生公司的做法是:拿現成的模型,用自己行業的資料訓練它,讓它學會處理具體任務,再把這套能力做成可以直接用的產品。以客服系統為例,過去需要僱傭數百人的呼叫中心,如今可以被 AI 客服系統替代:全天候運行、響應一致、成本僅為原來的十分之一。這已經成為正在大規模落地、真實創造現金流的商業產品。為什麼AI應用層會出現大爆發?黃仁勳的回答是:因為模型能力越來越強了。他指出,2025年AI模型層發生了三件大事:第一,模型越來越值得信任,成為人們可靠的助手,能夠開展研究、對未見過的情境進行推理,將複雜問題拆解為可執行的步驟並制定行動方案。這標誌著語言模型正在演進為“智能體(Agentic AI)”。第二,開源模型很重要。他特別點名了DeepSeek,認為DeepSeek的開源對於全球AI產業都是重大利多。越來越多開源模型的湧現,讓企業、研究人員、大學和創業公司能夠基於這些模型,建構高度專業化、面向特定領域的系統。第三,物理智能取得突破。AI 的理解範圍從語言擴展到自然世界本身,包括蛋白質、化學結構和物理規律等複雜系統。本質上,這些對象都可以被視為“語言”,AI 正在學習並掌握它們的結構與規則。那麼當 AI 原生公司越來越多,會發生什麼?黃仁勳的回答很直接:上層 AI 應用爆發了,下層基礎設施就得必須跟上。他的判斷是:AI已經啟動了人類歷史上最大規模的基礎設施建設,輝達已經投入了數千億美元,但還遠遠不夠。“目前我們只投入了幾千億美元,這還只是開始。未來需要建設的是數兆美元等級的基礎設施,而且這是完全合理的。”不止是輝達,整個能源和晶片行業都在快速擴張。黃仁勳列出了幾個數字:台積電宣佈將建設 20 座新晶圓廠;輝達將與富士康、緯創、廣達一起合作建設 30 座新的電腦工廠,最終形成一座“AI 工廠”。同時,記憶體產業也在爆發:2025年,美光科技宣佈在美國投資約2,000億美元,用於美國半導體製造和研發;SK 海力士、三星也都在快速擴張。AI會創造大量工作崗位 技工類職業非常吃香既然AI的能力這麼強,那它會不會替代我們的工作崗位呢?這是縈繞在每個人心頭的疑慮。面對Larry Fink的追問,黃仁勳再次重申了他的看法:不會!並且AI還會創造大量工作崗位。老黃再次把辛頓拖出來鞭屍,又舉了那個著名的放射科例子:十年前,辛頓曾經建議停止培養放射科醫生,因為AI可以應用於醫學影像分析,這些醫生在未來五年中很可能被取代。但現在,AI 已經全面滲透進放射學的每一個環節,放射科醫生的數量卻不減反增。黃仁勳指出,這是因為工作的“目的”和“任務”不能混淆。放射科醫生工作的“目的”,是診斷疾病、幫助患者,解讀影像只是其中的一項“任務”。AI在這項任務上快速提效,能把醫生的時間解放出來去做更多與患者溝通、與其他醫生協作的事情,醫院能接診的患者變多了,收入增加,對醫生的需求自然也增加了。至於AI創造的工作崗位,據黃仁勳觀察,主要集中在“技工類崗位”上。這也不難理解,因為AI 正在引發人類歷史上規模最大的基礎設施建設:晶片工廠、電腦工廠、AI工廠……這都需要大量的水管工、電工、鋼結構工人、網路技術人員,裝置安裝、偵錯和維運的人等等。老黃透露,僅僅在美國,這一領域已經出現了非常顯著的增長,相關崗位的薪資幾乎翻倍。現在參與建設晶片工廠、電腦工廠或 AI 工廠的人,基本都能拿到六位數年薪。相比之下,白領工作會何去何從呢?不禁讓人捏了一把汗。每個國家都應該建設AI基礎設施 歐洲的機會尤其難得在訪談最後,老黃也大放豪言,呼籲每個國家都應該立刻行動起來,建設自己的AI基礎設施,尤其是開發中國家。黃仁勳的態度非常樂觀,他認為AI能夠縮小而非擴大技術鴻溝,未來AI本身就會成為一種基礎設施。“我很難想像,未來會有那個國家不把 AI 視為基礎設施的一部分,就像電力和道路一樣。”因此,打造屬於自身的AI模型,對一個國家來說會變得非常重要,“國家智能”將成為生態系統的一部分。黃仁勳指出,AI並不會僅侷限在發達國家,而是能夠普惠全球。原因是AI是歷史上最容易使用的軟體,短短兩三年時間,使用者規模就接近十億。他還認為,ChatGPT 可能是“歷史上最成功的消費級 AI 產品”,其易用性和親和力讓幾乎任何人都可以參與進來。“無論你是在開發中國家的學生,還是普通使用者,學習如何使用 AI、如何引導它、管理它、設定邊界、評估它,都會變得至關重要。”在這種發展趨勢下,未來我們可能不僅要管理“碳基智能”(人),還要管理“矽基智能”(數字 AI),AI將成為人類數位化勞動力的一部分。最後,Larry Fink話鋒一轉,將話題拉到了歐洲:歐洲目前在AI的舞台上似乎身影寥寥,那麼AI 與歐洲未來的成功之間有怎樣的關係?黃仁勳直言:你們擁有非常強大的工業基礎。如果歐洲現在就入場,把自身強大的工業與製造能力與 AI 融合,就能直接躍遷到“物理 AI”和機器人時代。前提是歐洲必須嚴肅對待能源供給問題,加大對基礎設施層的投入。他還強調,這對於歐洲來說,是“一代人只有一次”的機會。那麼,現在究竟是否存在AI泡沫?黃仁勳的回答很直接:沒有!他給出了一個很簡單的判斷標準:“輝達 GPU 現在遍佈所有雲平台,但你想租到一塊 GPU 仍然非常困難,而且不只是最新一代,連兩代之前的 GPU 租賃價格都在上漲。”這說明AI基礎設施的需求缺口還非常龐大,遠沒有到“泡沫”的程度。黃仁勳大聲疾呼,投資AI基礎設施,是一次歷史等級的機會!“我們需要更多能源、更多土地、電力、廠房,也需要更多技術工人。這是一次極其重大的歷史機遇,所有人都應該參與進來!”(51CTO技術堆疊)
祖克柏按下“核按鈕”!6000億美元豪賭AI基建,傳元宇宙裁員10%輸血
祖克柏開啟AI基建“核競賽”!1月13日凌晨,Meta正式啟動全新頂級戰略計畫“Meta Compute” ,旨在為AI發展建構前所未有的基礎設施規模。這也標誌著Meta此前承諾的“2028年前狂砸6000億美元投資美國基建”,正式進入了實操階段。為了攻克全球能源與監管的層層壁壘,祖克柏組建了一支極具政治權重的“三駕馬車”天團,甚至直接將川普的前國家安全副顧問招致麾下,親自坐鎮“外交”。另據內部消息,為了給這場核能豪賭籌措軍費,祖克柏不惜對自己曾經的摯愛,也就是元宇宙部門痛下殺手:裁員10%以全力輸血給新的AI帝國。這一近乎瘋狂的轉型瞬間撕裂了輿論場:一邊是川普高調點贊,為Meta的基建野心背書;另一邊是股價盤後跳水,市場對這種“不計成本”的投入表現出了本能的恐懼。但這或許是通往AGI唯一的窄門。在祖克柏精明的算盤裡,今天的股價下跌只是暫時的“燃料費”。他賭的是,當全球算力的狂飆最終撞上電力的天花板時,唯有掌握了能源閥門的人,才有資格定義什麼是真正的“超級智能”。01劍指“超級智能”:Meta Compute正式成軍就在本周一,祖克柏通過旗下社交平台Facebook發佈了一條重磅消息:Meta正式啟動名為“Meta Compute”的頂級倡議(Top-level initiative)。這絕非一次簡單的技術升級,而是關乎Meta未來十年生死的基石。這項計畫的核心任務極其純粹:建構一個能夠支撐“個人超級智能(Personal Superintelligence)”的全球級AI基礎設施。所謂的“超級智能”,即機器思維全面超越人類的奇點。祖克柏對此毫不掩飾野心:“Meta計畫在十年內建設能耗高達數十吉瓦(GW)的算力叢集,進而實現數百吉瓦甚至更多。”數百吉瓦是什麼概念?一吉瓦足以支撐一個小城市的用電。Meta的這一規劃,意味著其未來資料中心的耗電量將堪比一個中等規模的國家。 這不僅僅是程式碼與晶片的比拚,更是一場關於土地、能源、電網與全球供應鏈的總動員。正如祖克柏所言:“我們如何通過工程設計、投資和合夥關係來建構這些基礎設施,將成為我們的戰略優勢。”02“三駕馬車”:技術、算力與政商藝術的合流為了推動這一宏大計畫,祖克柏組建了一個極具深意的領導成員。“三駕馬車”的排布,精準暴露了Meta在全球化博弈中的多維佈局:技術壓艙石:高級工程主管桑托什·賈納爾丹 (Santosh Janardhan)作為Meta全球基礎設施的掌舵人,賈納爾丹將繼續負責資料中心架構、晶片計畫及營運。他是Meta多年來維持高並行社交網路的功臣,也是確保Meta Compute從藍圖變為現實的工程總指揮。AI新大腦:AI產品負責人丹尼爾·格羅斯 (Daniel Gross)作為初創公司Safe Superintelligence的前CEO,格羅斯是Meta的新面孔。他曾與OpenAI前首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)共同創立Safe Superintelligence(SSI)。自2025年7月加入Meta後,格羅斯將負責長期容量戰略、供應商合作夥伴關係及行業分析。他的加入,標誌著Meta在追趕OpenAI和Google的過程中,終於補齊了最核心的戰略規劃短板。政商操盤手:總裁兼副董事長迪娜·鮑爾·麥考密克 (Dina Powell McCormick)這是最出人意料、也最關鍵的一步棋。麥考密克是華爾街最有權勢的女性之一,曾在高盛深耕16年,並擔任過川普政府的國家安全副顧問。祖克柏明確表示,麥考密克將直接向他匯報,重點負責搞定各國政府及主權基金,解決基礎設施的建設、部署與融資問題。在全球監管收緊的當下,Meta深知“AI主權化”趨勢不可阻擋,要在全球拿地、拿電、拿錢,必須有這種等級的“影子外交官”出馬。有趣的是,這一任命迅速得到了川普本人的公開背書:“馬克做出了偉大的選擇!她是一個才華橫溢、表現卓越的人。”03現實的殘酷:元宇宙為AI“輸血”然而,宏大敘事的背後往往伴隨著陣痛。就在Meta Compute高歌猛進的同時,另一個曾經的夢想“元宇宙”正面臨嚴重的戰略壓縮。據知情人士透露,Meta計畫本周對旗下現實實驗室(Reality Labs)裁員約10%。該部門擁有約15000名員工,主要負責Quest頭顯、Ray-Ban智能眼鏡以及Horizon社交平台,曾是祖克柏的掌上明珠。2021年,祖克柏將公司改名Meta,宣佈All-in元宇宙。結果在燒掉超過600億美元後,元宇宙不再是舞台上唯一的明星。雖然官方堅稱不會放棄,但重心的偏移顯而易見。現實實驗室內部正在進行一場“存優去劣”的洗牌:將資源從昂貴且小眾的VR頭顯,向搭載AI助手的智能眼鏡傾斜。祖克柏在去年7月份的投資者電話會上也表示,智能眼鏡將是我們將“超級智能”融入日常生活的核心方式。投資者對這一邏輯心知肚明:Meta正在急於削減主營業務之外的開支,只為給那個吞金無數的“個人超級智能”輸血。04能源之戰:當AI撞上“核能”要實現數百吉瓦的夢想,光有晶片是不夠的,當下最緊缺的硬通貨是電力。由於AI資料中心的激進擴張,美國電力需求正經歷20年來首次大幅增長。為了確保長期供應,祖克柏徹底轉變了策略:將Meta從單純的算力“租戶”,變成了深度參與電網建設的“能源基建商”。根據BloombergNEF最新預測,為了支援Meta的資料中心,相關新型核反應堆的建設投資將超過140億美元。這一驚人數字背後,是Meta的一系列掃貨式核能協議。Meta已鎖定兩家新一代核能領軍企業:由OpenAI CEO薩姆·奧特曼(Sam Altman)支援的Oklo,以及比爾·蓋茲(Bill Gates)創立的泰拉能源(TerraPower)。·Oklo計畫:在俄亥俄州建設1.2吉瓦的核能園區,由16個小型反應堆組成的叢集,每個反應堆成本約3.5億至4億美元。如果一切順利,這些系統最早將於2030年開始供電。·泰拉能源計畫:建設兩座345兆瓦反應堆,並擁有增購6座的期權。儘管初期單座成本高達40億美元,但隨著技術成熟,成本有望壓降至10億美元。首批項目預計2032年完工。·現貨採購:為了填補“遠水解不了近渴”的空白,Meta還簽署了20年長約,直接購買Vistra Corp旗下三座已投入營運的傳統核電站電力。然而,實驗室之外的核能之路佈滿荊棘。目前,Oklo和泰拉能源都尚未獲得建造商業系統的監管批准,更沒有在商業規模上證明其發電能力。BNEF首席核能分析師克里斯·加多姆斯基(Chris Gadomski)潑了一盆冷水:“在核能世界裡,最初的成本估算通常遠低於實際支出,且遠滯後於實際目標。”這意味著,140億美元可能只是一個起步價,Meta必須面對漫長的審批周期和技術迭代的不確定性。Meta選擇的“重資產”模式雖然保證了穩定性,卻也讓華爾街感到不安。Meta此前預計2025年的資本支出將高達720億美元,而這僅僅是冰山一角。正如ClearView Energy Partners的分析指出,Meta已經把自己定位成了極少數具備“雄厚財力”和“極高風險承受能力”的科技巨頭。對於投資客來說,這就像是一個深不見底的黑洞:錢在以核聚變的速度燃燒,但Llama 4之後的盈利路徑依然籠罩在迷霧中。05資本市場的冷思考:耐心還能維持多久?周一消息公佈後,Meta股價盤後下跌1.7%。過去三個月裡,累計跌幅已近9%。投資者的擔憂並非空穴來風:投資回報率焦慮:祖克柏預計到2028年在AI基建上的投入將達到6000億美元。競爭白熱化:面對OpenAI和Google的步步緊逼,Llama 4的反響並未形成碾壓之勢。監管壓力:隨著資料中心消耗的水電資源達到“城市級”,地方社區的牴觸情緒正在升溫。但也有人看到了硬幣的另一面。網紅投資客@Matkinvest在X上發文稱:“許多人懷疑,是因為Meta的資產負債表不像雲服務商那樣能即時變現。但這恰恰為理解價值創造過程的長期投資者,提供了絕佳的上車位置。”06結語:祖克柏的“二次創業”從Facebook到Meta,祖克柏展現了矽谷掌舵人中罕見的賭性與決斷。Meta Compute的成立,實際上是他的第二次“改名級”創業。祖克柏正在建構一個由液冷機架、核反應堆、主權資本和超級智能構成的全新帝國。在這個帝國裡,社交媒體只是表層的應用,底層的能源與算力才是真正的力量源泉。裁員、重組、買核能、聘請政要,所有的動作都指向同一個目標:在人類通往超級智能的路上,Meta要成為那個修路的人,並擁有這條路的永久收費權。在通往AGI的荒原上,祖克柏已經燒掉了退路。這究竟是天才的遠見,還是狂人的妄想?答案就藏在未來兩年的AI落地上。 (網易科技)
AI產業圈裡,混得最慘的那些傢伙……
2025年,AI無疑是科技領域最強勁的引擎,創造了驚人的財富效應:OpenAI在短短幾年間已從研究實驗室成長為AI 產業的核心“造富引擎”,其估值已在最近的二級市場交易中攀升至約 5000 億美元,成為全球最具價值的非上市科技公司之一。輝達憑藉其GPU的絕對統治力,2025財年經營利潤率高達62.5%,815億美元的營業利潤相當於中國移動、中國電信、中國聯通三家營運商全年利潤總和的近3倍。台積電受益於人工智慧晶片和基礎設施需求的快速增長,2025年第三季度實現147.5億美元淨利潤,經營利潤率高達50.6%,為該公司有史以來最強勁的季度利潤,並且保持著連續七個季度利潤增長的記錄。光模組供應商中際旭創受益於AI算力基建的熱潮,股價一路從2022年的17元左右飆升至2025年最高的456元,市值突破4,000 億元人民幣大關,最新2025年半年報的經營利潤率為33%。然而,與AI大模型、晶片和關鍵部件供應商的風光無限形成鮮明對比的是,負責將這些先進技術整合成穩定可靠算力基礎設施的伺服器廠商,其財務表現卻普遍低迷。雖然AI行業景氣度的提升也推動這些伺服器廠商的營業收入大幅提升,但卻並未帶動其利潤水平顯著增長,以Dell、HPE、浪潮資訊、新華三等為首的主流伺服器廠商的經營利潤率長期徘徊在10%以下。這些在AI產業鏈上負責把 GPU 裝進鐵盒子、再把鐵盒子搬進資料中心的伺服器廠商們,雖然穿著光鮮亮麗的科技外衣,但其角色卻與建築工地上的搬磚工無異,即使房子賣到天價,他們卻只是賺個搬磚費而已。所以,在造富效應驚人的AI產業圈裡,處於中游的“高級搬運工”——伺服器廠商毫無疑問就是混得最慘的那些傢伙。一、伺服器成本解剖:微薄利潤下的殘酷分配以一台在美國市場售價高達30萬美元的典型AI伺服器機櫃(配置8張H100 GPU,風冷散熱)為例,剖析其成本構成,就可以清晰地揭示出Dell、HPE等伺服器廠商的利潤困境:GPU及HBM(高頻寬記憶體):成本21萬美元——這部分利潤絕大部分被輝達等晶片廠商拿走,其毛利率可達75%。儲存(SSD等):成本2.2萬美元——利潤流向三星、美光等儲存巨頭,毛利率約45%。高速網路卡:成本1.8萬美元——利潤主要由輝達旗下網路部門等掌握,毛利率高達68%。光模組:成本1.2萬美元——中際旭創等光模組廠商受益,毛利率約35%。伺服器本體(主機板、電源、機殼、風扇、線材等):成本2.5萬美元——這部分才是伺服器廠商能夠留下的價值,但其毛利率僅約為8%。結論顯而易見:同一條價值鏈,利潤差出10倍,晶片、光模組、儲存等部件供應商都在吃肉,而負責辛苦攢機的伺服器廠商則只能啃骨頭,不僅在整條價值鏈中只能分得約8%的微薄利潤,並且還要承擔起100%的交付風險。由於核心GPU供應商僅輝達一家,交貨周期長達52周,且要求先款後貨;博通等高速交換晶片供應商每年例行漲價,HBM記憶體也常被要求捆綁銷售;因此議價能力極弱的伺服器廠商始終處於被上游供應商“掐脖子”的困境中。上游供應吃緊之外,下游需求環境亦不輕鬆。伺服器需求集中在以微軟、Google、Meta為主的大型雲服務商手中,他們利用集中採購優勢,既可以通過公開招標、價低者得的方式壓價,還會設定複雜的季度返點條款,未完成供貨目標即扣款,更有甚者還推行庫存共管模式,將庫存跌價風險轉嫁一半給伺服器廠商。已經陷入上游供應商和下遊客戶雙重夾擊困境的伺服器廠商們,卻還要面對同行的“血海競爭”。位居全球伺服器出貨量前三名的Dell、HPE和浪潮資訊,市場份額分別為17%、16%和12%,無一超過20%,可見市場分散度及競爭之激烈。而且AWS、微軟、Meta等雲巨頭還委託工業富聯、廣達、緯穎等ODM(原始設計製造商)廠商生產白牌伺服器,進一步壓低採購成本,迫使品牌伺服器廠商跟進降價以避免出局風險。上下游的雙重夾擊與同行的慘烈競爭,最終導致伺服器行業整體“躺平”在低利潤區間,而造成這一切的根源則是伺服器製造領域的技術壁壘已被迅速磨平,核心優勢喪失殆盡。二、伺服器廠商同質化競爭的根源:技術護城河缺失過去二十年,伺服器製造被視作高技術壁壘行業。無論是複雜的主機板設計,還是苛刻的散熱與電源系統,抑或冗長的可靠性驗證流程,都足以讓後來者望而卻步。然而,隨著全球供應鏈的成熟與製造環節的分層協作,這道“壁壘”正以驚人的速度被磨平。今天,主機板的12層高速PCB方案——曾經代表系統工程極致複雜度的象徵——對於主要ODM廠商而言,已經成為“範本化生產”。從設計到打樣、驗證、量產,周期最短僅需三個月即可完成仿製或微創新。高速差分走線、SI/PI模擬、BMC整合、電源調優等工作,都可以在成熟EDA平台和參考設計的幫助下快速實現。硬體電路設計不再是技術護城河,而只是時間和資源的問題。散熱系統的情況更加典型。從風冷到液冷的轉變,本被視作一次產業升級,似乎為伺服器廠商創造了新的競爭空間。但實際上,核心專利和技術壁壘並不在整機廠商手中,而集中在冷板、接頭、泵閥、導熱介面材料等上游供應商處。整機廠商更多扮演的是“系統整合商”的角色——協調各部件、驗證性能、通過認證。即使液冷方案成為主流,其利潤和智慧財產權也大多掌握在散熱部件製造商,而非品牌伺服器廠商手中。如果說硬體層面的壁壘尚可通過工程積累追趕,那麼在軟體棧層面,伺服器廠商幾乎完全失去了主導權。以GPU計算生態為例,NVIDIA的CUDA、AMD的ROCm、以及Intel的oneAPI,不僅定義了計算加速框架,也牢牢繫結了軟體開發者生態。伺服器廠商無論採用那一家的GPU或加速卡,都必須在對方的軟體棧中“被動適配”,幾乎無法創造獨立的軟體價值。這意味著,伺服器整機廠商雖然承擔了系統整合、韌體調優、性能驗證、交付維運等繁重工作,卻註定難以從中攫取可持續的利潤空間,由此伺服器廠商除了拼交付速度和資金成本外,通過以價換量贏得規模效應已成其主要生存策略。三、浪潮資訊:伺服器廠商生存困境的典型樣本伺服器市佔率位居全球前三、中國第一的浪潮資訊發佈了2025年的中期報告,其財務表現恰是伺服器廠商生存困境的典型樣本。2025年上半年,受客戶需求增加、伺服器銷售增長推動,浪潮資訊實現營收802億人民幣,同比大幅攀升了90%;但與此同時其成本也同比增加了96.6%,導致毛利率水平從去年同期的7.6%進一步下滑到4.5%,這已成為伺服器廠商增量不增收,利潤被上游供應商擠佔的常態。從費用支出來看,浪潮資訊2025年上半年支出了6.3億銷售費用、3.6億管理費用和15.3億研發費用,同比變化不大;但15.3億研發費用僅佔802億營收的1.9%,如此低的研發費率實在配不上高科技企業的名頭,但也反映出伺服器廠商技術壁壘被磨平,核心專利和軟體智慧財產權被旁路而無需過多投入研發的典型特徵;但不增加研發投入構築技術壁壘,也就預示著伺服器廠商註定難以擺脫攢機工、搬運工的產業鏈定位。802億的營收,扣除765億的採購製造成本、26億的費用支出和4.9億的信用及資產減值,再加上其他收益之後,浪潮資訊從經營活動中賺取的利潤就只剩下8.4億,經營利潤率僅有1.05%。這相當於浪潮資訊每賣100元產品,僅能留下1元經營利潤,盈利能力還不如一家早點攤子:根據北京市監局2025年8月的備案資料,抽樣50 家北京社區早點攤的平均利潤率是18.4%。再來看資產負債情況。在浪潮資訊2025年上半年1070億的總資產裡,流動資產(1019.8億)佔了95%,其中存貨高達595.2億,同比增加了46%,佔到總資產的56%;應收帳款高達202.4億,同比增加了74%,佔總資產的19%。而這也是位於AI產業鏈中游的伺服器廠商最典型的資產模式。由於上游CPU、GPU、儲存器等核心部件供應緊張,為了搶佔貨源,伺服器廠商需要提前 2–3 個季度鎖貨從而導致庫存高企;而下游客戶又往往集中在網際網路、營運商、政府等大型客戶,普遍採用 60–120 天帳期,由此推高伺服器廠商的應收帳款。存貨和應收帳款的增長不僅意味著伺服器廠商的資金被佔用,而且還會帶來資產減值的風險。浪潮資訊2025年上半年共計4.9億信用及資產減值損失裡,有4.3億來自應收票據和應收帳款的壞帳損失,有0.6億來自因存貨跌價及合同履約成本減值造成的資產減值損失。特別是因存貨跌價造成資產減值損失,對於伺服器廠商而言更是家常便飯。每當上游核心部件供應商推出新一代產品,伺服器廠商就要遭受一次庫存的老型號產品被動減值的打擊,浪潮資訊在2023年和2024年因存貨跌價及合同履約成本減值造成的資產減值損失分別高達4.5億和5.1億。最後來看浪潮資訊2025年上半年的現金流量表。營收增長使得浪潮資訊銷售商品、提供勞務收到的現金高達1146億,同比增長了139%;但購買商品、接受勞務收到的現金亦高達1196億,同比增長141%,並最終導致經營活動產生的現金流量淨額為-55.8億,幾乎吃掉去年底留下來的全部現金餘額,顯示公司自身造血功能嚴重不足。為了補充現金以維持公司正常營運,浪潮資訊只能對外籌資,於是通過“借款”流入195.5億現金,得以將公司上半年的現金餘額維持在140億人民幣。然而196億人民幣通過“借款”取得的現金反映在資產負債表裡就變成了負債,不僅導致浪潮資訊2025年上半年的利息費用同比增長46%達到3.1億,超過2024年全年的利息支出(2.02億);而且也直接推動浪潮資訊2025年上半年的負債同比增加了69%(短期借款同比擴大了8.8倍)達到862.5億,使得其資產負債率高達81%。浪潮資訊不足5%的毛利率,高達81%的資產負債率,高企的庫存,缺血的現金流無一不印證著在高速發展的AI產業裡,伺服器廠商替上游晶片霸主打工、替雲巨頭墊資,最後把全部風險扛在自己資產負債表上,卻只賺到產業鏈1% 辛苦錢的悲催境地。結語:儘管AI訓練叢集的規模從萬卡等級向十萬卡等級邁進為整個產業帶來了營收大規模增長的可觀機會,但對於以Dell,HPE和浪潮資訊為首的伺服器廠商而言,AI時代的熱鬧屬於輝達,傳奇故事屬於OpenAI,龐大訂單屬於雲巨頭,可觀利潤分散於上下游的眾多參與者——卻唯獨難以留在自己手中。這些伺服器廠商們恰如數字經濟的基石,默默承載著算力洪流,卻只能在微利與風險中,依靠龐大的規模換取持續的“呼吸權”;因此在可預見的未來,如何突破同質化競爭、向上游技術或下游服務延伸以提升價值,將是它們必須面對的生存考題。 (ICT解讀者)
【GTC】黃仁勳稱將大舉投資AI基建確保美國領先,輝達市值逼近5萬億美元 | 巴倫科技
在GTC華盛頓大會主題演講中,黃仁勳官宣了輝達對諾基亞10億美元的投資,發佈了NVIDIA Arc、NVQLink、下一代Vera Rubin超級晶片等新技術、產品,並始終強調通過AI基礎設施等投資保證美國的領先地位。人工智慧的熱度越來越高,以至於“AI春晚”一年要辦兩場。美東時間10月27日至29日,人工智慧盛會輝達GTC大會首次在華盛頓特區舉辦“加場”。有別於更聚焦技術、產品的3月聖何塞春季旗艦大會,10月的華盛頓大會更像是“政策專場”,不少討論都聚焦於AI領域的產業政策、政府角色等。此前輝達官方也曾預告,大會重頭戲——公司CEO黃仁勳的主題演講除了會公佈產品相關資訊外,還將為觀眾釐清AI如何重塑行業、基礎設施及公共部門的路線圖。Wccftech的會前報導也曾指出,考慮地緣問題對輝達變得愈發重要,在華盛頓舉辦的大會或將更加關注“如何確保美國在人工智慧競賽中保持領先地位”。更引人矚目的是,美國總統川普在大會召開之際稱“希望向黃仁勳表示祝賀”,還表示二人隨後就將會面。美東時間10月28日中午12時許,黃仁勳如期登台發表演講。再次回顧公司發展歷程後,他集中介紹了公司在6G、量子計算、AI基礎設施建設等領域的最新進展和雄心。而在這背後,有關如何保持美國在AI領域的競爭優勢的考慮無處不在。在6G領域,黃仁勳詳細解釋了公司剛剛宣佈的向諾基亞投資10億美元的計畫。表示雙方將合作開發6G人工智慧平台,諾基亞未來的基站將全面採用主題演講中發佈的全新產品線NVIDIA Arc架構。“這將推動美國重返電信領導地位”,輝達在與黃仁勳主題演講同步發出的新聞稿中寫道。黃仁勳還在演講中推出了NVQLink,這是一種旨在將量子處理器與GPU計算系統連接起來的系統架構。他表示,未來每台使用輝達GPU的超級電腦都將是混合的,與量子處理器緊密耦合,以擴展計算的可能性。“這是計算的未來”,雖然沒有公佈具體技術進展,但黃仁勳稱已有17家量子計算公司承諾支援NVQLink。另外,主題演講中也明確提到,NVQLink允許量子處理器與美國九個國家實驗室的超級計算系統連接,保持美國在高性能計算領域的領先地位。與此同時,黃仁勳還宣佈輝達將與美國能源部合作建造7台新的AI超級電腦以推動美國科學發展,這也將成為美國能源部最大的AI超級電腦。在近2個小時的演講中,黃仁勳還談到了機器人、物理AI、美國的製造業回流等眾多熱點問題,並展示了下一代Vera Rubin超級晶片,還發佈了輝達資料中心/AI GPU路線圖。值得一提的是,就像呼應後者在遠方的祝賀一樣,黃仁勳還感謝了川普,主要是因為他在推動為資料中心加強能源供給方面的舉措。延續著此前說法,黃仁勳認為人類正處於人工智慧工業革命的黎明,而這項技術將定義每個行業和國家的未來。“美國必須引領這場邁向未來的競賽,這是我們這一代人的阿波羅時刻。下一輪的發明、發現和進步將取決於國家擴展人工智慧基礎設施的能力。我們正在與我們的合作夥伴一起建設有史以來最先進的人工智慧基礎設施,確保美國擁有繁榮未來的基礎,並確保世界人工智慧以美國的創新、開放和協作為基礎造福所有人。”他表示。在中美AI競賽趨於白熱化,兩國貿易關係持續波動的時刻,黃仁勳和他的輝達也承受著來自雙方的壓力。此前川普政府曾禁止輝達向中國出口高端晶片。但禁令解除後,輝達又在中國接連遭遇反壟斷調查、安全後門等問題。根據公司季度財報和黃仁勳的“親口承認”,輝達在中國的市佔率已從95%直接歸零,從今年二季度開始就無法向中國市場正常銷售晶片。而中國則在加速AI製造國產化替代處理程序,以寒武紀為代表的國產晶片公司備受矚目,被寄予“產生像DeepSeek一樣的衝擊波”的期待。截至10月28日,寒武紀股價已再次超越貴州茅台,成為A股第一高價股。不過,輝達是全球市值最高的公司。值得一提的是,在黃仁勳發表主題演講的同時,輝達股價繼續走高,盤中突破203美元,總市值逼近5萬億美元,再次創下歷史新高。以下為黃仁勳主題演講的中文翻譯版,經AI輔助和人工編輯:歡迎來到GTC。今天我們有太多內容要和大家分享。GTC是我們探討工業、科學、計算、現在與未來的地方。所以今天我要涵蓋的內容非常多。但在我開始之前,我想感謝我們所有的合作夥伴。他們幫助贊助了這次活動。你們會在展會周圍看到他們。他們來這裡與大家會面,這真的很棒。沒有我們整個生態系統的合作夥伴,我們無法完成我們所做的一切。大家都說,這是AI領域的“超級碗”。那麼,每一屆“超級碗”都應該有一個精彩的開場秀。你們覺得剛才的開場秀(指開場播放的回顧美國及全球科技產業發展的短片)和我們的“全大寫全明星”陣容(指大螢幕上展示的贊助商名單)怎麼樣?全是全明星運動員和全明星陣容。看看這些傢伙。在接下來的三個半小時裡,AI生態系統的各個行業將齊聚一堂,共同探討一些事情。那麼,我們開始吧。如大家在視訊中所見,輝達在60年來首次發明了一種新的計算模型。一種新的計算模型很少出現。這需要大量的時間和一系列我們觀察到的條件。我們發明這種計算模型,是因為我們想解決通用電腦、普通電腦無法解決的問題。我們還觀察到,總有一天,電晶體會繼續增加,但電晶體的性能和功耗提升將會放緩。這就意味著,摩爾定律將無法持續,它會受到物理定律的限制。那個時刻現在已經到來,我們的縮放已經停止了。這被稱為“德納德縮放”。德納德縮放大約在十年前就幾乎停止了。事實上,電晶體性能及其功耗的提升已經大幅放緩。然而,電晶體數量仍在繼續增長。我們在很久以前就注意到了這一點,並且在過去的30年裡,我們一直在推進這種我們稱之為“加速計算”的計算形式。我們發明了GPU。我們發明了名為CUDA的程式設計模型。我們觀察到,如果我們能增加一個處理器,利用越來越多的電晶體,應用平行計算,將其與順序處理的CPU相結合,我們就能將計算能力擴展到遠超以往的程度。而這個時刻確實已經到來了。我們已經看到了這個拐點:加速計算,它的時代現在已經來臨。然而,加速計算是一種本質上就不同的程式設計模型。你不能只是把手工編寫的、順序執行的CPU軟體放到GPU上,並指望它能正常運行。事實上,如果你只是那樣做,它實際上會運行得更慢。所以你必須重新發明新演算法,你必須建立新的庫,事實上,你必須重寫應用程式,這就是為什麼它花了這麼長時間。我們花了將近30年才走到這裡,但我們是一步一個腳印走來的。這也是我們公司的瑰寶。大多數人談論GPU的重要性,但如果沒有一個建構在其之上的程式設計模型,並且沒有對這個程式設計模型進行代際相容的dedication(我們現在是CUDA 13,即將推出14),如果沒有數百萬個GPU在每台電腦上完美相容地運行。那麼開發者就不會以這個計算平台為目標。如果我們沒有建立這些庫,那麼開發者就不知道如何使用演算法,並充分發揮架構的潛力。我的意思是,這真的是我們公司的瑰寶。(對應現場螢幕的展示依次解釋)我們花了將近七年的時間才讓cuLitho達到現在的水平。現在台積電在使用它,三星在使用它,ASML也在使用它。這是一個用於計算光刻的不可思議的庫,這是製造晶片的第一步。cuOpt,在數值最佳化方面打破了幾乎每一項紀錄……cuDF,一個資料幀方法,基本上是加速SQL、資料幀、專業資料幀資料庫。這個庫是共同啟動AI的庫,cuDNN,以及建構在它之上的名為Megatron Core的庫,使我們能夠模擬和訓練極其龐大的語言模型。這樣的例子還有很多。MONAI,非常重要,世界排名第一的醫學影像AI框架。順便說一下,我們今天不會過多討論醫療保健,但請務必觀看Kimberly的主題演講。她會詳細討論我們在醫療保健領域的工作。這樣的例子還有很多,基因組學處理、航空影像… 請大家注意,今天我們在這裡要做一些非常重要的事情。那就是cuQuantum,量子計算。螢幕展示的這只是我們公司350個不同庫的代表。這裡的每一個庫都重新設計了加速計算所需的演算法。每一個庫都使得我們所有的生態系統合作夥伴能夠利用加速計算,並且每一個庫都為我們開闢了新的市場。讓我們看看CUDA-X能做什麼。準備好了嗎?開始。(現場展示了數段遊戲、動畫CG片段)是不是很神奇?你們看到的一切都是模擬。沒有藝術,沒有動畫。這就是數學之美。這是深度的電腦科學,深度的數學,它的美令人難以置信。涵蓋了每一個行業,從醫療保健和生命科學,到製造業、機器人技術、自動駕駛汽車、電腦圖形學…甚至電子遊戲。你們看到的第一個鏡頭是輝達運行過的第一個應用程式。那是我們1993年開始的地方。我們一直堅信我們正在努力做的事情。很難想像,你能看到那個最初的虛擬戰鬥機場景活生生地呈現出來。而同一家公司相信我們今天會站在這裡。這真是一段不可思議的旅程。我想感謝所有輝達員工,請大家為他們鼓掌,感謝你們所做的一切。這真的太不可思議了。今天,我們涵蓋了很多行業。我的演講也將涵蓋AI、6G、量子模型、企業計算、機器人和工廠。讓我們開始吧。我們要涵蓋很多內容,有很多重大發佈,有很多新合作夥伴,這些可能會讓你們非常驚訝。電信是我們經濟、我們工業、我們國家安全的支柱和生命線。自從無線技術誕生以來,我們定義技術,我們定義全球標準,我們將美國技術出口到世界各地,以便世界可以基於美國的技術和標準進行建設。然而,距離那時已經過去很久了。當今世界部署的無線技術很大程度上都基於外國技術。我們基本的通訊架建構立在外國技術之上。這種情況必須停止。而我們有機會做到這一點,尤其是在這個根本性的平台轉型期。如你們所知,電腦技術實際上是每個行業的基礎。它是科學最重要的工具。它是工業最重要的工具。我剛剛說過我們正在經歷一個平台轉型。這個平台轉型應該是我們千載難逢的機會,讓我們重新回到遊戲中,開始基於美國技術進行創新。今天,我們宣佈我們將這樣做。我們與諾基亞建立了重大合作夥伴關係。諾基亞是世界第二大電信裝置製造商。這是一個3萬億美元的產業。包含數千億美元的基礎設施,全球有數百萬個基站。如果雙反進行合作,我們可以基於這個令人難以置信的、根本上基於加速計算和AI的新技術進行建設。並且讓美國成為6G下一次革命的中心。所以今天,我們宣佈輝達有一個新的產品線。它叫做輝達Aerial RAN Computer Arc。Arc由三項基本新技術建構而成:出色的CPU——Blackwell GPU,以及我們用於此應用的ConnectX網路。所有這些使我們能夠運行這個庫。我前面提到的這個CUDA-X庫叫做Aerial,本質上是一個運行在CUDA之上的無線通訊系統。我們將首次建立一個軟體定義的、可程式設計的電腦,它能夠無線通訊,同時進行AI處理。這完全是革命性的。我們稱之為輝達Arc。而諾基亞將與我們合作,整合我們的技術,重寫他們的軟體棧。這是一家擁有7000項5G基本專利的公司。很難想像,還有比這更偉大的電信領導者了。所以我們將與諾基亞合作。他們未來的基站將全面採用輝達Arc。而輝達Arc也與諾基亞當前的AirScale基站相容。這意味著,我們將採用這項新技術,並能夠用6G和AI升級全球數百萬個基站。現在,6G和AI確實很重要,我們也將首次能夠使用AI技術——“AI for ran”——通過使用人工智慧、強化學習,根據環境、流量、移動性、天氣等即時調整波束成形,來提高無線通訊的頻譜效率。所有這些都可以被考慮進去,這樣我們就能提高頻譜效率。基站消耗了全球約1.5%到2%的電力。所以提高頻譜效率意味著我們可以在不增加必要能源的情況下,通過無線網路傳輸更多資料。我們能做的另一件事是“AI on ran”。這是一個全新的機會。請記住,網際網路實現了通訊,但令人驚奇的是,像AWS這樣的聰明公司在網際網路之上建構了雲端運算系統。我們現在將在無線電信網路之上做同樣的事情。這個新的雲將是一個邊緣工業機器人云。這就是說,“AI for ran”來提高無線電頻譜效率。“AI on ran”本質上則是無線電信的雲端運算。雲端運算將能夠直接延伸到邊緣,那裡沒有資料中心,因為我們在世界各地都有基站。這個發佈非常令人興奮。Justin Hodar,諾基亞他們的CEO,我想他就在會場某處,感謝您與我們合作,感謝您幫助將電信技術帶回美國。這真是一次了不起的合作。非常感謝。(現場響起諾基亞經典鈴聲)這是慶祝諾基亞的最佳方式。接下來,讓我們談談量子計算。1981年,粒子物理學家、量子物理學家理查德·費曼設想了一種新型電腦,可以直接模擬自然。他稱之為量子電腦。四十年後,這個行業取得了根本性的突破。就在去年,實現了一個根本性的突破。現在可以製造出一個邏輯量子位元。一個相干的、穩定的、並且經過糾錯的邏輯量子位元。這一個邏輯量子位元由有時是幾十個,有時是幾百個物理量子位元共同工作組成。如您所知,量子位元這些粒子極其脆弱。它們可能非常不穩定。任何觀察、任何採樣、任何環境條件都可能導致它退相干。因此,它需要極其受控的環境,現在還需要許多不同的物理量子位元讓它們協同工作,讓我們能夠對它們進行糾錯,這些被稱為輔助量子位元或綜合徵量子位元。讓我們能夠糾正錯誤,並推斷出那個邏輯量子位元的狀態。有各種不同類型的量子電腦,超導、光子、囚禁離子、穩定原子,各種不同的製造量子電腦的方法。我們現在意識到,將量子電腦直接連接到GPU超級電腦是至關重要的,這樣我們才能進行糾錯,才能進行量子電腦的人工智慧校準和控制,才能進行協同模擬,共同工作,讓正確的演算法運行在GPU上,正確的演算法運行在QPU(量子處理單元)上,並讓這兩個處理器、兩台電腦並肩工作。這是量子計算的未來。讓我們看看。(現場播放了一段量子計算相關的視訊,其中稱量子糾錯是答案,NVQ Link則是一種新的互連架構,直接將量子處理器與輝達GPU連接起來,他們還將能夠協調量子裝置和AI超級電腦來運行量子GPU應用程式。)所以今天,我們正式發佈NVQ、NVQ Link。這得益於兩件事,當然,這個互連實現了量子電腦控制和校準、量子糾錯,以及連接兩台電腦(QPU和我們的GPU超級電腦)的混合模擬。它也是完全可擴展的。它不僅僅針對今天少量量子位元進行糾錯。它也為未來進行糾錯,屆時我們將把這些量子電腦從今天的幾百個量子位元擴展到數萬個量子位元,未來甚至到數十萬個量子位元。所以我們現在有一個架構,可以進行控制、協同模擬、量子糾錯,並面向未來進行擴展。行業的支援一直令人難以置信。在CUDA-Q的發明期間,記住,CUDA是為GPU-CPU加速計算設計的,基本上是用合適的工具做合適的工作。現在CUDA-Q已經擴展到CUDA之外,這樣我們就可以支援QPU,並讓兩個處理器(QPU和GPU)協同工作,計算在幾微秒內來回移動,這是與量子電腦協作所需的關鍵延遲。所以現在CUDA-Q是一個如此不可思議的突破,被眾多不同的開發者採納。今天我們宣佈有17家不同的量子電腦行業公司支援NVQ Link架構。我對此感到非常興奮。還有8個不同的美國能源部下屬實驗室:伯克利、布魯克海文、費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺… 幾乎每個美國能源部實驗室都與我們合作,與我們的量子電腦公司和這些量子控製器生態系統合作,以便我們將量子計算整合到未來的科學中。我們還有一個額外的重要發佈。今天,我們宣佈美國能源部正與輝達合作,建造7台新的AI超級電腦,以推動我們國家的科學發展。我必須向克里斯·賴特部長(美國能源部部長)部長致敬。他給能源部帶來了如此多的活力,能量的激增、激情的激增,以確保美國再次引領科學。正如我提到的,計算是科學的基本工具,我們正在經歷幾個大的平台轉型期。一方面,我們轉向加速計算。這就是為什麼未來的每台超級電腦都將是基於GPU的超級電腦。而且,我們轉向AI,這樣AI和基於原理的求解器、基於物理的模擬都不會消失,但它可以得到增強,從而通過使用代理模型、AI模型協同工作來擴展規模。我們也知道,基於原理的求解器、經典計算可以通過使用量子計算來增強,以理解自然狀態。我們也知道,未來,我們有如此多的訊號,如此多的資料需要從世界中採樣。遙感比以往任何時候都更重要。而這些實驗室,除非它們是機器人工廠、機器人實驗室,否則我們無法以我們需要的規模和速度進行實驗。所以所有這些不同的技術正在同時進入科學領域。賴特部長理解我們,他希望美國能源部抓住這個機會,為自己注入超強動力,並確保美國保持在科學的前沿。我想為此感謝你們所有人。謝謝。接下來,讓我們談談AI。什麼是AI?大多數人會說AI是一個聊天機器人,這確實是正確的。毫無疑問,ChatGPT是人們認為的AI前沿。然而,正如你現在看到的,這些科學超級電腦不是用來運行聊天機器人的。它們將進行基礎科學AI。AI的世界遠不止聊天機器人,當然。聊天機器人極其重要,而AGI從根本上來說至關重要。深度電腦科學、不可思議的計算能力、偉大的突破對於AGI仍然至關重要。但除此之外,AI還有更多內涵。事實上,我將用幾種不同的方式來描述AI。第一種方式,你首先會想到的是,AI已經完全重塑了計算棧。我們過去編寫軟體的方式是手工編碼的軟體運行在CPU上。今天AI是機器學習、訓練、資料密集型程式設計,如果你願意這麼說的話,通過AI進行訓練和學習,而AI運行在GPU上。為了實現這一點,整個計算棧已經改變。注意,你在這裡看不到Windows。你看不到CPU。你看到的是一個完全不同的、根本不同的棧。我們還可以從對能源的需求開始說起,這是另一個領域,我們的政府、川普總統值得巨大讚譽,他支援能源發展的倡議,他認識到這個行業需要能源來增長,需要能源來進步,我們需要能源來獲勝。他認識到這一點,並將國家的力量置於支援能源增長之後,完全改變了遊戲規則。如果沒有發生這種情況,我們可能會陷入糟糕的境地。我為此感謝川普總統。在能源之上是這些GPU。這些GPU被連接起來,建構成我稍後會展示的基礎設施。在這個基礎設施之上,包括巨型資料中心,輕鬆有這個房間大小的好多倍,消耗巨大的能量,然後通過這些稱為GPU超級電腦的新機器轉化能量,以生成數字。這些數字被稱為Token,可以說是人工智慧的語言、計算單元、詞彙表。你幾乎可以將任何東西標記化。你當然可以將英文單詞標記化。這就是為什麼你能夠識別圖像或生成圖像。將視訊標記化,將3D結構標記化,你可以標記化學物質、蛋白質和基因,你可以標記我們自己,或者幾乎任何有結構的東西,任何有資訊內容的東西。一旦你能將其標記化,AI就能學習那種語言及其含義。一旦它理解了那種語言的含義,它就能翻譯、能響應,就像你與ChatGPT互動一樣。它也能生成,就像ChatGPT能生成一樣。所以,你看到ChatGPT做的所有基本事情,你只需要想像,如果它是蛋白質會怎樣?如果它是化學物質呢?如果它是一個像工廠一樣的3D結構呢?如果它是一個機器人,而標記是理解行為,並將動作和運動標記化呢?所有這些概念基本上都是一樣的,這就是為什麼AI正在取得如此非凡的進展。在這些模型之上是應用程式。Transformer不是一個通用模型。它是一個非常有效的模型,但不存在一個通用的模型。只是AI具有普遍的影響力而已。我們有太多不同類型的模型了。在過去的幾年裡,我們享受了多模態的發明並經歷了創新突破。有太多不同類型的模型。有CNN模型,有狀態空間模型,有圖神經網路模型。在這些模型架構之上是應用程式,即過去的軟體。這是對人工智慧的一個深刻理解,一個深刻的觀察。過去的軟體行業是關於建立工具的。Excel是一個工具,Word是一個工具,網頁瀏覽器也是一個工具。我們之所以知道這些是工具,是因為大家在使用它們。工具,就像螺絲刀和錘子一樣,行業只有這麼大,這些IT工具大約價值1萬億美元左右。但AI不是一個工具,AI是工作者,這就是深刻的區別。AI實際上是能夠使用工具的工人。我真正感到興奮的事情之一是由Irvin在Perplexity所做的工作,他們使用網頁瀏覽器來預訂假期或購物。基本上是一個使用工具的AI。Cursor是一個AI和代理式AI系統,我們在輝達使用它。輝達的每一位軟體工程師都在使用Cursor。這極大地提高了我們的生產力。它基本上是我們每一位軟體工程師生成程式碼的合作夥伴。它也使用名叫VS Code的工具。所以Cursor是一個AI,一個代理式AI系統,而VS Code是它使用的工具。所有這些不同的行業,無論是聊天機器人,還是數字生物學(在那裡我們有AI助理研究員),或者機器人計程車。說到這,在機器人計程車內部,雖然看不見的,但顯然有一個AI司機。那個司機在工作,而它用來工作的工具就是汽車。所以,我們至今創造的一切,整個世界,我們至今創造的一切都是供我們使用的工具。有史以來第一次,技術現在能夠自己工作並幫助我們提高生產力。這樣的機會列表還在繼續,這就是為什麼AI所涉及的經濟領域是它從未觸及過的。它是在工具之下的幾萬億美元、甚至百萬億美元全球經濟。現在,AI將首次涉足這百萬億美元的經濟,使其更具生產力,增長更快,規模更大。我們面臨嚴重的勞動力短缺,擁有增強勞動力的AI將幫助我們增長。從技術產業的角度來看,有趣的是,在AI是開創經濟新領域的新技術這一事實之外,AI本身也是一個新產業。正如我早先解釋的,這些Token,這些數字,在你將所有不同的模態和資訊標記化之後,需要一個工廠來生產這些數字,這與過去不同。過去的電腦行業和晶片行業,請注意,如果你看過去的晶片行業的話,過去的晶片行業約佔IT行業的5%到10%,也許更少。原因是,使用Excel不需要那麼多計算,使用瀏覽器不需要那麼多計算,使用Word不需要那麼多計算。但是在這個新世界裡,需要有一台電腦始終理解上下文。它無法預先計算,因為每次你使用AI電腦,每次你要求AI做某事時,上下文都是不同的。所以它必須處理所有這些資訊環境。例如,在自動駕駛汽車的情況下,它必須處理汽車的上下文。你提出的指令是什麼?要求AI去做?然後它必須逐步分解問題,進行推理,制定計畫並執行。每一步都需要生成大量的Token,這就是為什麼我們需要一種新型系統,我稱之為AI工廠。它當然是一個AI工廠。它不同於過去的資料中心,它是一個AI工廠。因為,這個工廠只生產一樣東西,不像過去的資料中心什麼都做,為我們所有人儲存檔案,運行各種不同的應用程式。你可以像使用電腦一樣使用那個資料中心來處理所有應用程式。你可以一天用它來玩遊戲,你可以用它來瀏覽網頁,你也可以用它來做會計。所以那是過去的電腦,一個通用的、多用途的電腦。我在這裡談論的電腦是一個工廠。它基本上只運行一樣東西:它運行AI。其目的是設計用來生產儘可能有價值的Token,意思是它們必須聰明,並且你希望以驚人的速度生產這些Token。因為當你向AI提問時,你希望它快速響應。並且注意到在高峰時段,這些AI的響應越來越慢,因為它要為很多人做很多工作。所以你希望以驚人的速度生產有價值的Token,並且你希望以高效的方式生產它。我使用的每一個詞都與AI工廠、汽車工廠或任何工廠的概念一致。它絕對是一個工廠。而這些工廠以前從未存在過。在這些工廠內部是堆積如山的晶片,這引出了今天的話題。過去幾年發生了什麼。事實上,去年發生了一些相當深刻的事情。實際上,如果你看今年年初,每個人對AI都有某種態度。這種態度通常是:這將會很大,這將是未來。幾個月前,它進入了渦輪增壓模式。原因有幾個。首先,在過去的幾年裡,我們已經找到了如何讓AI更聰明的方法。這不僅僅是預訓練。預訓練基本上是說,讓我們把人類創造的所有資訊都給AI學習。這本質上是記憶和泛化。這不像我們小時候上學。學習的第一階段,預訓練從來不是,就像學前班從來不是教育的終點一樣。預訓練僅僅是教你智能的基本技能,以便你能夠理解如何學習其他一切。接下來是後訓練。預訓練之後是教你解決問題的技能,分解問題,進行推理。關於如何解決數學問題,如何編碼,如何逐步思考這些問題,使用第一性原理推理。然後在那之後,才是計算真正開始發揮作用的時候。如你們所知,我們上了學,那對我來說是幾十年前的事了。但自那以後,我學到了更多,思考了更多。原因是我們在不斷地用新知識夯實自己。我們不斷地進行研究,我們不斷地思考,這確實是智能的全部意義所在。所以現在我們擁有三個基本的技術技能。我們有這三個技術:預訓練,這仍然需要巨大的計算量。我們現在有後訓練,它使用甚至更多的計算。而現在,“思考”給基礎設施帶來了難以置信的計算負荷,因為它是在為我們每一個人思考。所以AI進行推理、“思考”所需的計算量確實非常巨大。我以前聽人說推理很容易,輝達應該做訓練,輝達需要做。但是,思考怎麼可能容易?思考是困難的,這就是為什麼這三個擴展法則給計算量帶來了如此大的壓力。現在另一件事發生了,從這三個擴展法則中,我們得到了更聰明的模型,這些更聰明的模型需要更多的計算。而模型越聰明,就有越多的人使用它,這就需要越多的計算。而且,現在它們值得付費了。輝達為每一份Cursor許可證付費,我們很樂意這樣做,因為Cursor正在幫助價值數十萬美元的員工——軟體工程師或AI研究員——提高數倍的生產力。所以,我們當然非常樂意這樣做。這些AI模型已經好到值得付費了。Cursor、11 Labs、Cynthia、Abridge、OpenEvidence,這樣的例子還有很多。當然還有OpenAI、Claude。這些模型現在如此之好,以至於人們願意為之付費。因為人們付費並更多地使用它,而每次他們更多地使用它,你就需要更多的計算。我們現在有兩個指數級增長。這兩個指數,一個是三個擴展法則帶來的指數級計算需求。第二個指數是,模型越智能,就有越多的人使用它,使用者增長和模型能力提升相互促進,都導致計算需求指數級增長。兩個指數現在同時對世界的計算資源施加壓力,正好在我剛才告訴你摩爾定律已基本結束的時候。所以問題是,我們該怎麼做?如果我們有這兩個指數級增長的需求,而我們找不到方法來驅動成本下降,那麼這個正反饋系統就會崩潰。良性循環對幾乎任何行業都至關重要,對任何平台行業都至關重要。它對輝達也至關重要。我們現在已經達到了CUDA的良性循環。建立的應用越多,人們創造的應用越多,CUDA就越有價值,CUDA就越有價值。購買的CUDA電腦越多,購買的電腦越多,開發者就越想為該平台建立應用。輝達的這個良性循環在經過30年後現在已經實現了。15年後,我們也將為AI實現了這個良性循環。AI現在已經達到了一個良性循環。所以,你越多地使用它,因為AI很智能並且我們願意付費,就能產生越多的利潤。產生的利潤越多,投入到電網中的計算資源就越多,投入到AI工廠中的計算就越多,AI就能變得越智能,越多的人使用它,越多的應用使用它,我們能解決的問題就越多。這個良性循環現在開始運轉了。我們需要做的是大幅降低成本,以便第一讓使用者體驗更好,當你提示AI時,它響應你的速度要快得多;第二,這樣我們就能通過驅動成本下降來保持這個良性循環繼續,這樣它就能變得更聰明,這樣就有更多人使用它,如此循環下去,這個良性循環現在正在加速。但是當摩爾定律真的達到極限時,我們該怎麼做呢?答案叫做協同設計。你不能只設計晶片,然後指望運行在上面的東西會更快。在設計晶片方面,你能做的最好就是每隔幾年增加可能50%的電晶體。如果你增加了更多電晶體,或者只是不斷增加更多電晶體,但那都是百分比增長,不是指數增長。我們需要復合指數增長來保持這個良性循環繼續,我們稱之為極端協同設計。輝達是當今世界上唯一一家真正從一張白紙開始,能夠同時思考新的基礎架構、電腦架構、新晶片、新系統、新軟體、新模型架構和新應用的公司。在座的許多人之所以在這裡,是因為你們是這個堆疊不同層面的一部分。通過與輝達合作,我們從根本上重新設計了從底層到頂層的一切。然後,因為AI是一個如此龐大的問題,我們將其規模化。我們首次建立了一台電腦,這台電腦已經擴展成整個機架。那是一台電腦,一個GPU,然後我們通過發明一種新的AI乙太網路技術(我們稱之為Spectrum-X Ethernet)將其橫向擴展。每個人都會說乙太網路就是乙太網路。而Spectrum-X乙太網路是為AI性能而設計的,這就是它如此成功的原因。即使那樣也還不夠大。我們會用AI超級電腦和GPU填滿整個房間。那仍然不夠大,因為AI的應用數量和使用者數量持續呈指數級增長,我們將多個這樣的資料中心連接在一起,我們稱之為跨規模擴展,使用Spectrum-X GS,千兆規模X,Spectrum-X Gigascale XGS。通過這樣做,我們在如此巨大的層面上進行協同設計,如此極端的層面,以至於性能提升是驚人的。不是每一代提升50%,不是每一代提升25%,而是多得多。這是我們製造過的最極端的協同設計電腦,坦白說,自IBM System 360以來,在現代時期,我認為從未有過像這樣從頭開始、徹底重新發明的電腦。建立這個系統極其困難。我稍後會向你們展示其好處。但本質上我們所做的,我們創造了NVLink 72,如果我們要建立一個巨大的晶片,一個巨大的GPU,它看起來會是這樣。這是我們必須要做的晶圓級處理的水平,是不可思議的。所有這些,所有這些晶片現在都被放入一個巨大的機架,這個巨大的機架使所有這些晶片作為一個整體協同工作。這看上去完全不可思議。(現場演示環節)不管怎樣,我們基本上,過去我們創造的是這個。這是NVLinks,NVLink 8。現在這些模型如此巨大,我們解決的方法是把這個模型,這個巨大的模型,變成一大堆專家,有點像團隊。所以這些專家擅長某些類型的問題,我們把一大堆專家聚集在一起。所以這個巨大的數萬億美元AI模型有所有這些不同的專家,我們把所有這些不同的專家放在GPU上。現在是NVLink 72。我們可以把所有的晶片放入一個巨大的交換網路中,每個專家都可以相互交談。所以主專家、主要專家可以與所有下屬專家交談,以及所有必要的上下文、提示和我們必鬚髮送給所有專家的大量資料。專家們,無論哪個專家被選中來解答問題,我們會更多地嘗試響應,然後它會一層接一層地去做,有時八層,有時十六層。有時這些專家,有時六十四個,有時兩百五十六個。但關鍵是專家越來越多。那麼,這裡,NVLink 72,我們有72個GPU。正因為如此,我們可以在一個GPU裡放四個專家。你需要為每個GPU做的最重要的事情是生成Token,這取決於你的HBM記憶體的頻寬量。我們有一個H100 GPU為四個專家生成“思考”。而在這裡,因為每台電腦只能放八個GPU,我們必須把三十二個專家放進一個GPU。所以這個GPU要為一個專家進行三十二次“思考”。對比這個系統,每個GPU只為一個專家進行四次“思考”。正因為如此,速度差異是驚人的。這個剛剛出來,是由SemiAnalysis進行的基準測試。他們做了非常徹底的工作,他們對所有可進行基準測試的GPU進行了基準測試。結果發現並沒有那麼多。如果你看看GPU列表,實際上可以基準測試的GPU大概90%是輝達。好吧。但是,所以我們是在和自己比較,但世界上第二好的GPU是H200,運行所有工作負載。Grace Blackwell每個GPU的性能是H200的10倍。當你只增加了兩倍的電晶體時,如何獲得10倍的性能?答案是極端協同設計。通過理解未來AI模型的性質,並且我們在整個堆疊上進行思考,我們可以為未來建立架構。這是件大事。這意味著我們現在可以更快地響應。但接下來是更大的事。這張圖片顯示世界上成本最低的Token是由Grace Blackwell NVLink 72生成的,這是最昂貴的電腦。一方面,GB200是最昂貴的電腦。另一方面,它的Token生成能力如此強大,以至於它以最低的成本生產Token。因為每秒Token數除以Grace Blackwell的總擁有成本是如此之好,以至於它是生成Token成本最低的方式。通過這樣做,提供驚人的性能,10倍的性能提升,並提供10倍的低成本,以此讓良性循環可以繼續。不管怎樣,有兩個平台轉型正在同時發生。一個平台轉型是從通用計算轉向加速計算。記住,加速計算,正如我之前向你們提到的,它進行資料處理、圖像處理、電腦圖形學,它進行各種計算。它運行SQL,運行Spark,不管你需要什麼,我相當確定我們有一個很棒的庫能夠給你。你可能是一個試圖製造掩範本來生產半導體的資料中心。我們有一個很棒的庫給你。所以,在底層, irrespective of AI,世界正在從通用計算轉向加速計算,這與AI無關。事實上,許多CSP在AI出現之前早就有了服務。記住,它們誕生於機器學習時代,經典的機器學習演算法,如XGBoost,用於推薦系統、協同過濾、內容過濾的演算法,像資料幀這樣的演算法,所有這些技術都是在通用計算的時代建立的。即使是那些演算法,即使是那些架構,現在通過加速計算也變得更好。所以,即使沒有AI,世界的CSP也將投資於加速。而我們的GPU是唯一能完成所有這些事情的GPU。而ASIC可能能做AI,但它不能做任何其他事情。輝達能完成所有那些。這就解釋了為什麼僅僅依賴輝達的架構是如此安全。我們現在已經達到了我們的良性循環,達到了我們的拐點。這相當不尋常。我有很多合作夥伴在座,你們所有人都是我們供應鏈的一部分,我知道你們工作得多麼努力。我想感謝你們所有人,感謝你們如此努力地工作。非常感謝。現在我要向你們展示原因。這是我們公司業務正在發生的情況。我們看到Grace Blackwell的增長非常驚人,原因正如我剛才提到的。它是由兩個指數驅動的。我們現在能見度很高,我想我們可能是歷史上第一家能看到截至2026年累計5000億美元Blackwell訂單和早期Ruben(下一代平台)訂單的技術公司。如您所知,2025年還沒結束,2026年還沒開始。這是已經預訂的業務量,價值5000億美元。到目前為止,我們已經出貨了600萬個Blackwell GPU…在最初幾個季度,我想,是頭四個生產季度或三個半生產季度。2025年我們還有一個季度要完成。然後我們還有四個季度。所以接下來五個季度,要完成5000億美元,那是五倍的增長速度。這某種程度上告訴了你一些事情。這是上一代的Hopper的整個生命週期的數額。還不包括中國和亞洲市場。所以Hopper在其整個生命週期中是400萬個GPU。每個Blackwell模組裡面有2個GPU,是一個大封裝。Blackwell在早期階段就有2000萬個GPU,增長非常驚人。所以我想感謝我們所有的供應鏈合作夥伴,各位。我知道你們工作得多麼努力。我製作了一個視訊來慶祝你們的工作。讓我們播放它。(播放一段關於美國製造業的視訊)我們再次在美國進行製造,這太不可思議了。川普總統之前講的第一件事就是讓製造業回歸,因為這對國家安全是必要的。讓製造業回歸,因為我們想要那些工作崗位。我們想要那部分經濟。九個月後,我們現在在亞利桑那州全面生產Blackwell。Extreme Blackwell,GB200 NV Grace,Blackwell NVLink 72。極端協同設計給我們帶來了10倍的代際提升。這完全不可思議。現在,真正不可思議的部分是,這是我們製造的第一台AI超級電腦。這是在2016年,我把它交付給舊金山的一家初創公司,這家公司後來被證明是OpenAI。這就是那台電腦。而為了製造那台電腦,我們設計了一款新晶片以便我們進行協同設計。現在我們必須設計的所有晶片。這就是目前所需要的。你不可能拿一個晶片就讓電腦快10倍。那不會發生。讓電腦快10倍的方法,讓我們能夠持續指數級提升性能、持續指數級驅動成本下降的方法,就是極端協同設計,同時研發所有這些不同的晶片。我們現在已經有了下一代的Ruben晶片。這是我們的第三代NVLink 72機架規模電腦。GB200是第一代。我們在世界各地的所有合作夥伴,我知道我聽說你們工作有多努力。第一代做得非常艱難,第二代順暢多了。而這一代,看這個(現場展示),對我們來說真的不算什麼了。這些現在都在實驗室裡了。這是下一代Ruby。在我們發貨的同時,我們正在準備投入生產,你知道,大概明年這個時候,甚至可能稍早一點。所以每一年,我們都會推出最極端的協同設計系統,這樣我們就能持續提升性能,持續降低Token生成成本。看看這個,這非常漂亮。所以這太神奇了。(接下來是現場展示和介紹,包括Vera Rubic計算托盤、BlueField、NVLink交換機等)現在,如你所注意到的,輝達最初從設計晶片開始,然後我們開始設計系統,我們設計AI超級電腦。現在我們正在設計整個AI工廠。每次我們向外擴展並整合更多需要解決的問題,我們就能提出更好的解決方案。我們現在建造整個AI工廠。這個AI工廠是我們為Vera Ruben建造的,我們建立了一種技術,使我們所有的合作夥伴能夠數位化地整合到這個工廠中。讓我展示給你們看。(現場播放一段相關視訊)完全數位化。遠在Vera Ruben作為實體存在之前,遠在這些AI工廠存在之前。我們就最佳化它,並將它作為數字孿生來營運。所以所有與我們合作的合作夥伴,很高興你們所有人都支援我們。我們一起建造AI工廠。再來,讓我們談談模型,開源模型。在過去的幾年裡,發生了幾件事。一個是開源模型,由於推理能力相當強大,例如Stability AI,這些不同的能力使得開源模型首次對開發者來說非常有用,它們現在是初創公司的命脈。每個行業都有其自己的用例,不同行業的初創公司需要讓那個領域專業知識能夠嵌入到一個模型中。開源使之成為可能。研究人員需要開源,開發者需要開源。世界各地的公司,我們需要開源模型,這非常重要。美國也必須在開源方面領先。我們有驚人的專有模型,但我們還需要驚人的開源模型。我們的國家依賴於此,我們的初創公司依賴於此,所以輝達正致力於去做這件事。我們現在是開源貢獻的最大領導者。我們有23個模型在排行榜上。我們有所有這些不同的領域,從語言模型到物理AI模型再到生物學模型。每個模型都有龐大的團隊。這就是我們為自己建構超級電腦的原因之一,以促成所有這些模型的建立。我們有排名第一的語音模型,排名第一的推理模型,排名第一的物理AI模型。下載量非常可觀。我們致力於此。原因是科學需要它,研究人員需要它,初創公司需要它。我很高興AI初創公司基於輝達建構。他們這樣做有幾個原因。當然,我們的系統豐富。我們的工具運行良好。我們所有的工具都在我們所有的GPU上運行。我們的GPU無處不在,在每一個雲上都可用,你可以下載我們的軟體棧,然後它就能工作。我們擁有豐富的開發者生態系統的優勢,他們正在使這個生態系統更加豐富。所以我真的很高興與所有我們合作的初創公司建立關係。謝謝你們。同樣的情況是,許多這些初創公司現在開始創造更多的方式來利用我們的GPU,僱傭人員並擴展規模。Nibias、Lama、love、Lambda, 所有這些公司都很棒。所有我談到的CUDA-X庫。我告訴過你們關於如何開源AI,將我談到的所有模型貨幣化,我們整合到AWS中,我們整合到Google Cloud中……我們還將真實的庫整合到世界SaaS中,這樣每一個SaaS最終都將成為一個代理式SaaS。總有一天,我很想僱傭一個AI代理基本設計師,與我們的ACS合作,本質上是Synopsys的Cursor,如果你願意這麼說的話。我們與Anirudh Devgan、Cadence合作。今天早些時候,他是開場秀的一部分,Cadence在做不可思議的工作,加速他們的堆疊以建立AI代理,這樣我們就能擁有Cadence AI、AC設計師和系統設計師工作。今天,我們宣佈一個新的合作。AI將極大提高生產力。AI將改變幾乎每一個行業。但AI也將極大地加劇大型網路安全挑戰,那些壞AI。所以,我們需要一個不可思議的防禦者。我無法想像有比CrowdStrike更好的防禦者了。George Voltage在這裡。他剛才在這裡。是的,我早些時候看到他了。我們正在與CrowdStrike合作,使網路安全達到光速。建立一個在雲中擁有網路安全AI代理的系統,同時也在本地或邊緣擁有真正優秀的AI代理。這樣,無論何時出現威脅,你都能在瞬間檢測到它。我們需要速度,我們需要快速的代理式AI,超級智能的代理。然後,還有一個發佈要宣佈。這是世界上增長速度最快、最有價值的企業,可能是當今世界上最重要的企業堆疊——Palantir。他們獲取資訊,獲取資料,獲取人類判斷,並將其轉化為商業洞察。我們與Palantir合作,加速Palantir所做的一切,這樣我們就能以更大的規模和更快的速度進行資料處理。無論是過去的結構化資料,還是非結構化資料。然後,我們會為我們的政府處理這些資料,為了國家安全,也為世界各地的企業。以光速處理這些資料,並從中發現洞察。這就是未來的樣子。Palantir將整合輝達技術,以便我們能夠以光速處理資料。接下來,讓我們談談物理AI吧。物理AI需要三台電腦,就像訓練一個語言模型需要兩台電腦一樣:一台訓練它,一台評估和推理。好吧,所以那就是你看到的大型GB200。為了給物理AI做這件事,你需要三台電腦。你需要電腦來訓練它。這是GB,Grace Blackwell NVLink 72,是進行所有我早先向你們展示的模擬的電腦,使用Omniverse DSX。那基本上是一個大窗口,讓機器人學習如何成為一個好機器人,讓工廠本質上成為一個數字工具。(現場展示)這台電腦必須非常擅長生成式AI,並且必須擅長電腦圖形學、感測器模擬、光線追蹤、訊號處理。這台電腦,它叫做Omniverse電腦。一旦我們訓練了模型,在數字孿生中模擬那個AI,那個數字孿生可以是一個工廠的數字孿生,也可以是一大堆機器人的數字孿生,然後你需要操作那個機器人。而這是機器人電腦。這個進入自動駕駛汽車。它的一半可以進入一個機器人。好吧?或者你實際上可以有,你知道,相當敏捷和快速操作的機器人。它可能需要兩個這樣的電腦。這三台電腦都運行CUDA。這使得我們能夠推進物理AI,讓AI理解物理世界,理解物理定律、因果關係、持久性。我們有令人難以置信的合作夥伴與我們一起建立工廠的物理AI。我們自己也在使用它在德克薩斯州建立我們的工廠。現在一旦我們建立了機器人工廠,裡面有一堆機器人,而這些機器人也需要物理AI,應用物理AI並在可視化孿生中工作。讓我們看看美國的再工業化。在德克薩斯州的休斯頓,富士康正在建設一個最先進的機器人設施,用於製造輝達AI基礎設施系統。面對勞動力短缺和技能差距,數位化、機器人技術和物理AI比以往任何時候都更加重要。工廠在Omniverse中以數字方式誕生。富士康工程師在基於Omniverse技術的西門子數字孿生解決方案中組裝他們的虛擬工廠。每個系統,機械、電氣、管道,都在施工前經過驗證。西門子Plant Simulation運行設計空間探索最佳化,以確定理想的佈局。當出現瓶頸時,工程師使用由西門子TeamCenter管理的更改來更新佈局。在Isaac Sim中,相同的數字孿生用於訓練和模擬機器人AI。在裝配區,發那科機械手建構GB300托盤模組。由FII的靈巧機械手和熟練的AI將母線排安裝到托盤中。AMR(自主移動機器人)將托盤運送到測試艙。富士康使用Omniverse進行大規模感測器模擬,機器人AI在其中學習作為車隊協同工作。在Omniverse中,基於輝達Metropolis和Cosmos建構的視覺AI智能體從上方監視機器人車隊和工人以監控操作,並在出現異常、安全違規甚至人與機器人協同工作。這就是製造業的未來,工廠的未來。我想感謝我們的合作夥伴富士康,他們的CEO就在這裡。所有這些生態系統合作夥伴使得我們建立機器人工廠成為可能。你知道,完成這項工作所需的軟體量如此巨大,除非你能在數字孿生中完成,在這個星球上設計它,在數字孿生中操作它,否則讓這個正常工作的希望很渺茫。我也非常高興地看到,Caterpillar,我的朋友Joe Creed和他有百年歷史的公司也正在將數字孿生融入他們製造這些工廠的方式中。我們將擁有未來的機器人系統。而最先進的系統之一是Figure。Brett Abcock今天在這裡,他剛在三年前創立了一家公司。他們今天價值近400億美元。我們正在一起合作訓練AI,、訓練機器人、模擬機器人,當然,還有進入Figure的機器人電腦。真的很驚人。我有幸看到了它。它真的非常了不起。還有我的朋友馬斯克也在研究人形機器人,這很可能將成為最大的新型消費電子市場之一,並且肯定也是最大的工業裝置市場之一。Peggy Johnson,Agility的同事們正在與我們合作,是關於倉庫自動化機器人的。Johnson & Johnson的同事們再次與我們合作,訓練機器人,在數字孿生中模擬以及操作機器人。這些Johnson & Johnson的手術機器人甚至將執行完全現代的非侵入性手術,其精度將是世界前所未見的。當然,還有最可愛的機器人,迪士尼機器人。這個真的非常貼近我們的心。我們正與迪士尼研究部門合作,基於一項革命性的技術,開發一個全新的框架和模擬平台,使得機器人能夠在一個物理上準確、基於物理的環境裡學習如何成為一個好機器人。讓我們看看它。(現場播放了一段機器人相關視訊)現在,記住,你剛剛看到的一切…那不是動畫,不是電影,是模擬。那個模擬是在Omniverse中實現的,是數字孿生。所以這些工廠的數字孿生、倉庫的數字孿生、手術室的數字孿生,他們學習如何操作和導航、與世界互動的數字孿生,而且全部都是即時完成的。這將成為世界上最大的消費電子產品線,這是人形機器人的未來,當然,現在人形機器人仍在開發中。但與此同時,有一種機器人顯然正處於拐點,並且基本上已經到來,那就是輪式機器人。機器人計程車本質上是一個AI司機。現在我們今天要做的一件事是,發佈輝達Drive Hyperion。這是件大事!我們建立了這個架構,以便世界上每家汽車公司都能製造汽車。車輛可以是商用的,可以是乘用的,可以專用於機器人計程車。製造作為機器人計程車的車輛。本質上,3個環繞攝影機和雷達、雷射雷達使我們能夠實現最高水平的環繞繭式感測器感知和冗餘,這是最高安全等級所必需的。Drive Hyperion現在已被梅賽德斯-奔馳等採用了,未來還有許多其他汽車企業會採用。(現場播放了一段機器人自動駕駛相關視訊)好吧,所以這就是我們今天討論的內容。我們討論了大量的事情,核心是兩個平台轉型,從通用計算轉向加速計算,以及輝達CUDA。而那套名為CUDA-X的庫使我們能夠涉足幾乎每個行業,並且我們正處在拐點上。它現在正在增長,正如良性循環所預示的那樣,第二個拐點現在正降臨到我們身上。第二個平台轉型,AI,從經典的手寫軟體轉向人工智慧。兩個平台轉型同時發生,這就是為什麼我們感受到了如此驚人的增長。我們談到了量子計算、開源模型。在企業方面,我們與CrowdStrike和Palantir合作,加速他們的平台。我們談到了機器人技術,它即將成為最大的消費電子和工業製造領域之一。當然,我們還談到了6G,輝達為6G提供了新平台。我們稱之為Arc。我們為機器人汽車提供了新平台,我們稱之為Hyperion。我們甚至為工廠提供了新平台,兩種類型的工廠:AI工廠,我們稱之為DSX。然後是應用AI的工廠,我們稱之為Mega。所以現在我們也在美國進行製造。女士們先生們,感謝你們今天蒞臨,感謝你們允許我將GTC帶到華盛頓特區。我們希望每年都能在這裡舉辦。感謝你們所有人,讓美國再次偉大。謝謝! (Barrons巴倫)
OpenAI公佈超級智能路線圖:模型明年有望重大飛躍,2028年實現全自動AI研究員,基建投資承諾1.4兆
OpenAI設定兩個關鍵節點:2026年9月實現AI研究實習生,能夠通過消耗大量計算資源有效加速內部研究;2028年AI研究員可自主完成大型研究項目。Altman指出,到2028年科學研究將完全由AI自動化,AI系統將能夠推動科學前沿發展。截至目前OpenAI已承諾建設總計超過30GW基礎設施,對應未來數年內總計約1.4兆美元投資。Altman強調,1.4兆美元只是起點,正討論更宏大願景。預計未來六個月內模型能力將有巨大飛躍。美東時間28日周二,OpenAI宣佈公司重組完成後,CEO Sam Altman和首席科學家Jakub Pachocki通過一小時直播首次公開了實現超級智能的具體時間表。公司已承諾在資料中心基礎設施上投入約1.4兆美元,對應約30吉瓦的算力容量,並計畫建立每周新增1吉瓦算力的"基礎設施工廠"。Jakub Pachocki在直播中表示,深度學習可能在不到十年內將人類帶入超級智能時代。OpenAI設定了兩個關鍵節點:2026年9月實現AI研究實習生,能夠通過消耗大量計算資源有效加速內部研究;2028年3月實現全自動AI研究員,可自主完成大型研究項目。Sam Altman強調,為支撐這一時間表,OpenAI正從AI助手轉型為平台服務商,目標是讓外部開發者在其平台上創造的價值超過OpenAI自身創造的價值。他表示,公司最終需要達到數千億美元年收入以支撐基建投資,企業服務和消費者業務都將是重要收入來源,IPO是最可能的融資路徑。OpenAI 的內部模型目前尚未遠超已發佈的版本,但對在2026年9月前實現重大飛躍非常樂觀。預計到2026年9月,極有可能見證模型質量的巨大飛躍。此外,預計未來數月乃至數年內還會有重大進展。OpenAI並未給出發佈GPT-6的具體時間表,但表示產品發佈的節奏將不再與研究計畫嚴格繫結。例如 GPT-5 首次將推理模型作為旗艦產品推出,這本身就是一個重大的整合性工作。但可以確定,未來六個月內、甚至更早,模型能力將有巨大飛躍。此次直播圍繞研究、產品和基礎設施三大支柱展開,披露了OpenAI對AGI發展路徑、安全框架和商業模式的最新思考。公司同時公佈了新的組織架構,由非營利性質的OpenAI基金會控制公共利益公司OpenAI集團,前者初期持有後者約26%股權。超級智能時間表:從研究實習生到全自動研究員Jakub Pachocki詳細闡述了OpenAI的研究路線圖,核心聚焦於深度學習的規模化訓練。他指出,AGI這個詞可能低估了技術進步的潛在規模,OpenAI內部相信距離實現超級智能——在眾多關鍵維度上超越所有人類的系統——可能已不足十年。OpenAI使用"任務時間跨度"來衡量模型能力進展,即模型完成任務所需時間與人類專家的對比。當前一代模型的水平約為5小時,可從其在國際數學或資訊學奧林匹克競賽中與頂尖選手相媲美的表現看出。Jakub表示,這個時間跨度將繼續快速延伸,不僅源於演算法創新,也來自"上下文計算"或"測試時計算"等新維度的規模化。基於這些預期,OpenAI設定了明確的內部目標。2026年9月前,開發出能力足夠強的AI研究實習生,能夠通過消耗大量計算資源有意義地加速內部研究人員工作。更長遠的目標是在2028年3月前,開發出能夠自主完成大型研究項目的全自動AI研究員。Jakub強調,整個研究計畫圍繞一個核心展開:加速科學發現和新技術發展,這將從根本上改變人類技術進步的速度。Sam Altman在問答環節中補充,AGI的到來將是一個持續數年的過渡過程,而非單一時間點。他特別指出2028年這個節點,屆時科學研究將完全由AI自動化,AI系統將能夠推動科學前沿發展。關於內部模型進展,他表示並未雪藏某個極其強大的模型,但有許多已開發的技術元件,當這些元件組合在一起時將帶來巨大能力飛躍,預計未來六個月內模型能力將有顯著提升。五層安全框架:從價值對齊到系統性保障隨著系統能力向超級智能邁進,Jakub Pachocki提出了一個將安全問題結構化的五層框架,從模型最核心的內部因素延伸到最外部的系統保障。最核心的是價值對齊,關乎AI最根本"關心"的是什麼。Jakub解釋,當系統變得極其聰明、思考時間極長、處理的問題超越人類能力極限時,給出完全無懈可擊的指令會變得異常困難,因此必須依賴更深層次的對齊。第二層是目標對齊,關注AI如何與人互動以及遵循指令的表現。第三層是可靠性,即AI能否精準校準預測、在簡單任務上保持可靠並在困難任務上表達不確定性。第四層是對抗性魯棒性,側重於AI能否抵禦來自人類或其他AI對手的蓄意攻擊。最外層是系統性安全,包括系統安全性、AI可訪問的資料範圍、可使用的裝置等外部限制。Jakub特別介紹了一項名為"思維鏈忠實度"的研究方向。這項可解釋性技術的核心思想是,在訓練過程中刻意讓模型內部推理的某些部分不受監督,從而讓這部分推理過程能夠更忠實地反映模型真實所思所想。他表示,經驗性結果非常理想,OpenAI內部大量使用該技術來理解模型訓練過程中的演變,並與外部合作者成功用它研究模型的欺騙傾向。這項技術具有可擴展性,但也很脆弱,要求在演算法和產品設計中劃定清晰界限。例如,ChatGPT中對思維鏈進行總結的功能,就是為了避免將完整思維鏈直接暴露給使用者。Jakub解釋,如果思維鏈完全可見,它就會成為使用者體驗的一部分,久而久之就很難再對其保持無監督狀態。基建擴張計畫:向兆美元級算力投資邁進Altman以前所未有的透明度公開了OpenAI的基礎設施建設計畫。Altman周二表示,截至目前OpenAI已承諾建設總計超過30吉瓦(GW)的基礎設施,對應未來數年內總計約1.4兆美元投資。這些承諾基於OpenAI目前對收入增長和融資能力的評估。這一投資涉及眾多合作夥伴,包括AMD、博通、Google、微軟、輝達、甲骨文、軟銀等晶片、資料中心、能源和製造領域的公司。Altman強調,1.4兆美元只是起點,OpenAI正在積極討論更宏大的願景。Altman表示,OpenAI的願景是建立一個基礎設施工廠,能夠以每周1GW的速度創造算力,同時將成本大幅降低,目標是在裝置的5年生命周期內,將每GW成本降至約200億美元。他承認,實現這一願景需要海量創新、更深入的合作、巨大的收入增長,甚至需要重新調整OpenAI在機器人領域的思路,讓機器人幫助建設資料中心。Altman在問答環節中指出,要支撐1.4兆美元的投資,公司年收入最終需要達到數千億美元,"我們正處在通往這一目標的陡峭增長曲線上"。他預計企業服務將是重要收入驅動力,但也看到了從消費者獲取收入的方式,不僅限於月度付費訂閱,還包括新產品和裝置等。關於IPO計畫,Altman表示,考慮到公司巨大的資本需求和規模,IPO是最可能的路徑,但目前沒有具體計畫或時間表。"考慮到我們的資本需求以及公司規模,可以說這對我們而言是最可能的路徑,"他說。平台化轉型:從超級助手到AI雲生態Sam Altman闡述了OpenAI在產品層面的戰略演進。他表示,過去OpenAI的產品形態主要是以ChatGPT為代表的AI超級助手,現在正朝著更宏大的目標演進——成為一個平台,一個其他人可以在其上建構應用和服務的"AI雲"。Altman引用比爾·蓋茲的觀點定義平台成功:當其他人基於平台創造的價值超過平台建構者自身創造的價值時,平台就成功了。這正是OpenAI明年的目標。他表示,憑藉現有的技術、使用者基礎和框架,OpenAI能夠推動全世界在其平台上建立出驚人的新公司、服務和應用。為實現平台化轉型,Altman強調了兩個基礎原則。首先是使用者自由,如果OpenAI要成為供全世界不同人群使用的平台,就必須承認人們有截然不同的需求。雖然會有一些寬泛的邊界,但OpenAI希望使用者在使用AI時擁有大量控制權和定製化能力。他多次重申"像對待成年人一樣對待成年使用者"的原則,承諾隨著年齡驗證等機制完善,將給予成年使用者更大的自由度,尤其在創作等領域會大幅放寬限制。其次是隱私保護。Altman指出,隨著AI成為基礎平台,人們與AI的互動方式非常私密,會像對醫生、律師或配偶一樣與之交談,分享生活中最隱秘的細節,因此需要以不同於以往技術的方式思考隱私問題。在產品規劃上,OpenAI描繪了一個層級架構:底層是晶片、機架、資料中心和能源等硬體基礎;中間層在硬體之上訓練模型並建構帳戶體系;應用層推出了名為Atlas的瀏覽器,並計畫未來幾年推出硬體裝置;最令人興奮的是頂層的生態系統,人們將利用OpenAI的API、ChatGPT內的應用、企業平台和帳戶建構服務。新公司架構與基金會使命為支援上述計畫並確保服務於核心使命,OpenAI對公司架構進行了重大調整。新架構由兩部分組成:頂端是非營利性質的OpenAI基金會,擁有對公司的最終控制權,董事會隸屬於基金會;基金會之下是公共利益公司OpenAI集團。基金會將掌控OpenAI集團,初期持有其約26%股權,如果公司表現出色這一比例未來還可能增加。Altman表示,基金會的目標是成為有史以來最大的非營利組織,利用其資源追求AI帶來的最大化社會福祉。OpenAI集團將更像普通公司一樣運作,以便吸引研究所需的龐大資源,但依然受到與基金會相同的使命約束,尤其在安全問題上必須以使命為唯一準則。基金會公佈了兩個初步重點方向。首先是投入250億美元利用AI幫助治癒疾病,資金將用於生成資料、提供計算資源、資助科學家等。其次是AI韌性,這是一個比傳統AI安全更廣泛的概念。聯合創始人Wojciech Zaremba解釋,先進AI的到來必然伴隨風險和顛覆,AI韌性的目標是建立一個由眾多組織構成的生態系統共同解決這些問題。他用網路安全行業發展類比:網際網路早期人們不敢線上輸入信用卡號,而現在龐大的網路安全產業保護著關鍵基礎設施,使人們願意將最私密資料放線上上。同樣,AI領域也需要一個"AI韌性層",OpenAI基金會將幫助催生這樣一個生態系統。以生物風險為例,韌性不僅包括在模型層面阻止病毒學相關查詢,還包括建立快速響應機制,以便在問題發生時有效應對。 (invest wallstreet)
400億收購! BlackRock就這樣震驚整個金融圈......
又一筆400億美元併購落錘!交易規模不基礎,主角團更是不基礎由貝萊德、輝達、xAI、微軟四位頂流組成的跨界投資財團這不是「強強」聯手而是「強強強強」聯手一個字形容👇01. 世紀大聯盟怒砸400億,掀翻交易規模天花板一周前,全球資管巨頭BlackRock攜手科技頂流輝達、微軟、xAI共同成立的投資財團AIP宣佈以400億美元收購麥格理資產管理旗下的資料中心巨頭Aligned Data Centers。cr.CNBC這是以貝萊德牽頭的AI聯盟的首次出手,並且一舉創下了有史以來規模最大的資料中心交易紀錄。這世紀併購的主角,到底是誰?AIP,全名為Artificial Intelligence Infrastructure Partnership-人工智慧基礎設施投資聯盟,由貝萊德於2024年發起,聯合了科技巨頭微軟、晶片巨頭輝達、馬斯克的AI創業公司xAI、阿布達比MGX,出資方成員還有科威特主權基金(科威特投資局KIA)和新加坡淡馬錫等。cr.BlackRock而AIP組織的投資目標是擴展AI基礎設施的容量,並推動建構以AI為核心的未來經濟成長模式。這筆交易遠非單純的資產買賣,背後隱藏著一個「神仙陣容」的戰略合作。投資手法:BlackRock貝萊德去年收購了全球基礎設施合作夥伴公司(GIP),而此次收購買方正是由GIP主導。作為全球最大的資產管理公司,貝萊德親自參與,釋放的訊號再明確不過:AI基礎設施已成為與能源、交通同等重要的核心資產類別。BlackRock CEO兼AIP董事長Larry Fink表示:資料中心是基礎設施的重要支柱,這次投資不僅為AI未來發展提供了必要的基礎設施,還能讓客戶共享AI帶來的發展紅利。技術大腦:輝達作為AI晶片絕對王者般的存在,輝達參與收購資料中心營運商的動機在於確保AI算力基礎設施的發展速度不拖其晶片銷售的後腿。雲端架構師:微軟微軟不僅是投資者,更是最大的使用者。作為雲端服務領域的領導者,微軟對算力的需求就如同汽車離不開汽油。微軟的Azure雲服務將Aligned資料中心納入其全球網路,擴展了雲端運算的能力。投資Aligned,等同於提前掌握未來AI發展的“能源基地”,為自家AI服務(如Copilot)提供持續不斷的動力支援。創新技術總監:xAI馬斯克旗下的xAI雖然規模最小,加入聯盟的時間也稍晚於上面幾家,但論AI,沒有人比它更專業。作為一家專注於人工智慧研發的公司,其對高效能運算和資料中心的需求直接推動了這項投資。可以說也是此次收購的AI技術代表。我們再把目光切換到賣方,如此頂尖的投資聯盟,為什麼非得花400億美元收購一個資料中心?先來看看所謂的Data Center資料中心營運商到底是幹什麼的。資料中心就是用來放伺服器的地方,像我們用的雲服務(例如阿里雲、AWS)都需要用這些設施來儲存資料、運作程式。這類公司的特點是:靈活擴展:當客戶需要更多伺服器時,他們可以快速增加容量。節能環保:用高科技(如冷卻技術)減少電力消耗,保護環境。服務客戶:主要客戶是雲端運算公司(像AWS、Azure)和需要大量運算能力的大公司(如金融、AI公司)。資料中心,恰恰是AI運轉的根基。在所有人追逐演算法時,BlackRock選擇了電力,這也是貝萊德作為投資巨頭的敏銳意識:真正可預測的回報,來自世界最慢的一部分。麥格理資產管理公司旗下的Aligned 就是一家專門建造和管理資料中心的代表型企業。cr.Aligned掌握著AI時代最為稀缺的“硬通貨”,在美洲擁有50個園區和78個資料中心,總電力容量超過5吉瓦。 5吉瓦是什麼概念?相當於約500萬戶家庭的用電量。在AI算力高度依賴電力的今天,能夠提供充足電力和空間的企業,才真正擁有話語權。AI伺服器功率強大,散熱需求極高,傳統冷卻方式已無法滿足。Aligned的專利液冷技術DeltaFlow™,能夠有效率地解決高密度計算的散熱問題。這項技術就像為高速運轉的AI大腦貼上了“冰敷貼”,確保其全天候穩定高效運行。Aligned的客戶裡有微軟、亞馬遜這些超大規模的雲端服務商。跟著這些大客戶長期合作,不僅能帶來穩定的現金流,還能建立起很高的產業壁壘。投資Aligned,其實就是直接押注AI領域最頂尖的需求方。02. AI基建,早就被BlackRock盯上了BlackRock堪稱業內探索AI的先鋒,2018年就成立了BlackRock AI Lab,專注於透過AI技術改善財務狀況,並將統計學、ML、最佳化、隨機控制和決策理論的專業知識,應用於解決包括retirement、trading、另類投資和ETF等領域問題。cr.BlackRock今年6月,貝萊德推出一款名為「Asimov」的AI研究平台,並已在股票基本面部門投入使。COO Rob Goldstein表示Asimov就像一個“虛擬投資分析師”,並且可以不間斷工作。cr.investing它能夠審查研究報告、公司檔案和電子郵件等大量資訊,從而產生有助於投資組合建構的洞察,並有望在兩年後的投資者日,實現全公司內部的全面推廣使用。和其他金融公司提出的「AI取代分析師」論調不同,Goldstein表示,這次全面推廣AI工具的目標是擴大團隊,增強招募力度,而人工智慧平台將增強BlackRock人力工作的能力,而不是取代他們。而在BlackRock 9月底發表的最新一季資產配置展望報告中,也間接預告了此次對於AI基建領域的投資。報告中明確提出在當前的全球環境中,長期的宏觀錨點已經不存在了,但以AI為代表的超級趨勢(Mega forces)正在成為全球經濟成長的新錨點,仍有能力帶來持久的超額迴。這背後的關鍵支撐正是企業在AI相關基礎設施上的強勁投資。cr.BlackRock Global Outlook 2025Q4貝萊德每季都會公佈資產配置展望報告,其中不僅提供了全球市場的全面分析,還展示了專業投行如何透過資料、情境分析和資產配置策略應對複雜的市場環境。對於還在準備投行面試的同學來說是絕佳的培養market sense、理解Macro market知識、積累面試素材的機會。像上面提到的數據中心、AI基礎設施領域,看起來離大家很遠很“硬核”,但其實它的背後就是新崗位的誕生。如果說傳統技術崗位需要的技能是以實現功能為導向,例如熟練的汽車裝配工,按圖紙組裝零件即可。那麼AI 技術崗位對於能力的要求則更進一步,以解決複雜問題為導向,比如汽車智能係統整合師,既要懂機械原理,又要懂自動駕駛演算法如何與剎車系統聯動,甚至需要預判未來可能接入的車路協同數據介面。例如在AI基建這一領域下的幾種AI技術類新崗位👇演算法工程師Algorithm Engineer難度:★★負責開發與優化機器學習、深度學習模型資料清洗、標註模型訓練優化開發能同時處理文字、圖像、語音的融合型AI 系統建構預測模型,輔助企業決策通過數據分析挖掘業務價值資料工程師Data Engineer難度:★為AI 模型提供高品質的資料支援設計和實施數據採集、清洗、轉換和加載流程建構和維護資料倉庫、資料湖和資料平台開發ETL(提取、轉換、載入)流程和工具確保資料的品質、一致性和安全性優化資料處理流程,提升資料處理效率AI系統工程師AI Systems Engineer難度:★★設計、建構和維護AI 系統設計與實施AI 系統架構開發和優化AI 模型的部署和推理流程建構和維護AI 開發和生產環境實現模型的高效能計算和分佈式訓練優化AI 系統的效能、可擴充性和可靠性解決AI 系統運行中的技術問題AI硬體工程師AI Hardware Engineer難度:★★★設計與優化AI 專用硬體設計和開發AI 加速晶片和硬體架構優化AI 模型在特定硬體上的效能開發硬體加速庫和工具鏈研究及應用新興硬體技術,如量子計算、光子計算與軟體團隊協作,確保軟硬體協同優化參與AI 硬體產品的測試和驗證03. AI全面入侵高薪行業,留學生如何破局上岸?AI發展所帶來的新機會不可否認,但除了其帶來的正面影響,我們聽到了更多焦慮的聲音。無論是投入、諮詢或科技業,AI衝擊下,連續幾年的人員高速擴張的公司不少進入了業務瓶頸期,而冗餘的員工就成了巨大的成本包袱,再加上業務重組與組織架構調整,近段時間各個高薪行業的裁員消息屢見不鮮。華爾街、MBB、矽谷......各行各業在AI衝擊下求職門檻有何變化、留學生該如何突圍上岸?在WST的視頻號裡,或許能找到答案,WST創始人團隊以及各行各業不少資深行業導師詳細解讀了這個問題👇.....AI浪潮下,各行各業都在面臨轉型、變革,對於求職的留學生群體來說,想要在動蕩的環境中站穩腳跟,核心關鍵就是——做好長線規劃、提升個人競爭力。無論是那個行業,在硬實力上強勁的中國留學生想要突破競爭拿下Offer,就更需要關注相對薄弱的環節:軟實力。渣打銀行CEO Winters在訪談中被問到會給年輕人甚麼學習建議時,他坦言:本科時期學到的「如何思考」的能力,才是我之後40年職業生涯中最重要的財富。儘管這種能力在過去幾十年裡被逐漸削弱,但隨著AI的興起,它正在重新回歸職場核心。cr. Business InsiderWinters認為,在人工智慧迅速發展的時代,技術技能正逐漸被機器或全球其他地區的低成本高效技術人才或AI所取代。而真正有價值的,是作為人類獨有的軟技能,例如好奇心和同理心。你需要真正理解你的客戶和受眾,事先預判他們的需求,這種能力會比單純的技術更重要。他也提到,學習如何思考、如何有效溝通,才是未來職場不可或缺的核心技能。同樣,祖克柏Bloomberg的一次訪談中也提到,他認為最重要的技能是「學習如何批判性思考和學習價值觀」。這些聲音無一不是在告訴那些曾經認為學好硬技能就能高枕無憂的人:技術已經不是唯一核心競爭力,軟技能才是真正制勝的關鍵。中國留學生的硬技能從來不是短板,但許多中國留學生或家長,往往都一定程度上忽略了軟技能的重要性。為什麼很多中國學生在校成績很好、實習經驗也多、技術性的問題都會答,但就是總拿不到offer?很有可能就是在面試中,TA的溝通技能或是談吐表現不佳,讓面試官對你的個人發展力(包括但不限於溝通能力、領導力等等)持否定態度。因此在準備面試時,behavioral上也不能鬆懈,一方面要多去參加面試,另一方面要結合個人經歷和常見的面試題去做mock。 (WallStreet Tequila)
從「虛擬礦工」到AI基建主力:比特幣礦商的算力革命與資本博弈
一、資本估值邏輯的悄悄轉向2025年,全球資本市場見證了一場結構性裂變:比特幣價格與礦企股價之間長期以來的連動關係被徹底打破。比特幣年內上漲約14%,一度突破17萬美元創下歷史新高,然而,追蹤上市礦商的彭博指數卻飆漲超過150%。這現象絕非偶然,而是市場對礦企價值重估的明確訊號。以CleanSpark為例,其在宣佈進軍AI領域後,股價單日漲幅超過13%,年內累計漲幅達140%;Cipher Mining Inc.與IREN Ltd.的股價更是分別上漲約300%及500%。這種「股價脫鉤比特幣」的趨勢,標誌著礦企的估值邏輯已從「比特幣價格依賴」轉向「AI算力潛力驅動」。摩根大通分析師指出:“礦企正透過加大對AI基礎設施的投入,獲取更穩定且利潤更高的收入來源。市場開始將其視為AI算力供應商,而非單純的加密資產生產者。”二、從電力消耗者到算力提供者比特幣礦企轉向AI並非一時興起,而是多重因素共同作用的策略必然。獲利空間受擠壓。2024年的比特幣減半事件,將區塊獎勵從6.25 BTC削減至3.125 BTC,直接導致挖礦收入腰斬。同時,全網雜湊率攀升至1.129 ZH/s,挖礦難度高達146.72 T,競爭加劇推高營運成本。許多礦企先前依賴激進的債務發行維持擴張,財務壓力進一步放大。AI算力需求的爆發。在全球AI模型訓練與推理需求呈指數級增長的背景下,高效能運算(HPC)資源成為稀缺資產。據估計,全球AI算力缺口在未來三年內可能達到目前供給的兩倍以上。比特幣礦企憑藉其在電力、土地、冷卻系統和資料中心運作方面的積累,成為填補這一缺口的天然候選者。獲利模式的根本轉變。比特幣礦企獲利模式已向AI等多個方向悄悄轉變。三、礦企的四大核心優勢比特幣礦企在AI賽道上並非從零開始,其多年累積的底層能力構成轉型的堅實底座。電力資源與能源管理能力。礦企通常位於電力資源豐富、電價低廉的地區,並已獲得大量電力配額。在AI運算成為新一代「能源黑洞」的今天,這項優勢成為其最核心的競爭障礙。大規模計算營運經驗。從分散式運算叢集的部署,到7×24小時不間斷營運,礦商在硬體維護、故障排查、能源效率最佳化等方面累積了深厚經驗。 CleanSpark等公司建立的垂直整合模型,可直接遷移至AI資料中心管理。全球分散式基礎設施。礦商的設施多分佈於氣候涼爽、能源供應穩定的地區,如美國德州、挪威、加拿大等,這些地點同樣適合興建低PUE的AI資料中心。 Bitdeer在俄亥俄州改造的570兆瓦設施即為典型案例。高效能硬體部署能力。礦商熟悉GPU、ASIC等專用晶片的採購、部署與維護流程,與AI算力的硬體需求高度契合。 IREN透過發行可轉換票據籌集1億美元加速HPC擴張,顯示出資本市場對其硬體能力的認可。四、礦企的三種轉型策略面對AI浪潮,礦商依據自身資源與策略定位,選擇了不同的轉型路徑:全面轉向AI基礎設施。以CleanSpark為代表,其聘請前沙烏地阿拉伯AI資料中心專案負責人Jeffrey Thomas擔任AI業務資深副總裁,全面押注AI算力服務。這類企業旨在徹底​​擺脫對加密資產的依賴,成為純粹的算力供應商。混合業務模式。Bitdeer提出「AI與挖礦並存」的策略,其資本市場副總裁Jeff LaBerge表示:「AI/HPC是對挖礦的補充,而非替代。我們將以自營挖礦效率為主導,有選擇地將合格場地改造為AI設施。」該模式旨在實現收入多元化與風險分散。算力靈活調配模式。部分礦企探索在不同業務間動態分配算力的方式。大型礦企可在比特幣與AI任務間切換算力;中小礦企則嘗試將以太坊、Solana等區塊鏈業務與AI推理服務結合。 Hut 8透過子公司Highrise AI推出GPU即服務產品,並獲得Coatue Management的1.5億美元投資,正是這條路徑的體現。五、轉型路上的四重門儘管前景誘人,礦企的AI轉型之路仍佈滿荊棘。資金壓力與融資風險。AI資料中心建置與GPU採購需要巨額資本投入。 Bitfarms在2025年發行近9億美元可轉換票據,導致債務激增,引發市場對股權稀釋​​的擔憂,股價在五天內下跌40%。如何平衡融資結構與股東利益成為關鍵議題。技術架構與人才壁壘。比特幣挖礦與AI計算在軟體棧、網路架構與客戶需求上有顯著差異。礦企缺乏AI模型部署、調度系統開發與企業級服務經驗。 Core Scientific曾在2022年申請破產,其AI轉型也因技術整合困難而步履維艱。市場競爭與獲利挑戰。AI算力市場已有AWS、Google Cloud、CoreWeave等成熟玩家,礦企需在科技、顧客與人才層面與之競爭。 Bitfarms在2025年上半年營運虧損7,200萬美元,顯示出在激烈市場中獲利的難度。政策與地緣政治風險。美國政府對礦機進口加征關稅,推高了硬體成本;部分地區對算力出口的監管亦存在不確定性。礦企需在全球化佈局與政策遵守之間找到平衡。六、能源、算力與資本的三重博弈未來三至五年,比特幣礦企的AI轉型將呈現以下趨勢:電費與計算效率成為核心競爭力。隨著挖礦難度持續上升與AI算力價格競爭加劇,礦企的焦點已從「提升雜湊率」轉向「最佳化能源效率」。低PUE、綠色電力與智慧調度系統將成為關鍵差異化因素。產業整合與分化加速。擁有規模、資金與技術優勢的大型礦企,如CleanSpark、Bitdeer,可望成功轉型為混合運算基礎設施公司。中小礦商或被迫專注於利基市場(如邊緣運算、垂直產業AI),或透過併購整合退出市場。全球算力佈局重構。美國關稅政策可能推動算力轉移到加拿大、北歐、中亞等低關稅地區。同時,個體礦工透過AI工具最佳化營運亦有機會脫穎而出-2025年第三季有礦工實現單區塊超過35萬美元收益,即為例證。估價邏輯徹底重塑。華爾街分析師指出,目前市場對比特幣礦商的估值幾乎完全基於其在HPC與AI領域的成長潛力,不到10%的投資者對話仍圍繞著比特幣本身。成功轉型的礦企將演變為下一代「能源+算力」公司,AI——而非比特幣——將成為其成長的核心引擎。七、算力革命沒有回頭路比特幣礦企的AI轉型,是一場由演算法、電力與資本共同驅動的產業躍遷。它們不再只是“虛擬礦工”,而是正在成為全球算力基礎設施中不可或缺的一環。儘管前路充滿資金、技術與市場挑戰,但能源優勢、硬體經驗與分散式設施構成其不可複製的競爭障礙。無論選擇全面轉向、混合模式或靈活調配,礦企的終極目標是一致的:在算力稀缺的時代,將自己重塑為AI經濟的關鍵供給方。在這場沒有退路的轉型中,能源、算力與資本的三角關係將決定最終贏家。而可以確定的是:未來的算力戰場,不再只有比特幣的雜湊碰撞,更有AI的浮點運算──而那正是礦企們正在全速駛向的新大陸。 (數位新財報)